Comment l’Autorité de la concurrence dénonce une régulation audiovisuelle « profondément inadaptée »

La Cour des comptes, le CSA et le rapport « Bergé » ont déjà mis en évidence les faiblesses du système français de régulation de l’audiovisuel. L’Autorité de la concurrence va plus loin en en dénonçant la « complexité rare » et le caractère « très atypique », voire « non-équitable et inefficace ».

François Brunet* (photo) et Winston Maxwell,

avocats associés, cabinet Hogan Lovells

L’Autorité de la concurrence plaide pour une réforme qui permettrait aux acteurs français de la télévision de se débarrasser de contraintes, lesquelles, aujourd’hui, n’ont plus aucun sens économique – voire, risquent de condamner à la stagnation et au déclin l’ensemble des filières audiovisuelle et cinématographique françaises. Son analyse commence par un panorama détaillé du nouveau paysage concurrentiel de l’audiovisuel. L’Autorité de la concurrence met en avant l’existence d’une « révolution numérique », qui a « profondément modifié les usages de l’audiovisuel » et qui a permis le développement de nouveaux opérateurs issus du monde de l’Internet, en particulier celui des GAFAN. Elle constate ainsi que ces nouveaux acteurs ne connaissent pas les mêmes contraintes réglementaires que les acteurs traditionnels français de l’audiovisuel et sont, en conséquence, capables de proposer des offres plus flexibles et moins coûteuses pour les consommateurs.

Une dérégulation inéluctable du secteur
Ainsi, Netflix augmente aujourd’hui le nombre de ses abonnés de 25 % à 30 % par an et dispose d’une base mondiale de 140 millions d’abonnés – dont près de 5 millions en France. De même, après seulement deux années d’existence, Amazon Prime Video totalise déjà 100 millions d’abonnés dans le monde. A l’inverse, Canal+, qui, depuis 20 ans, s’est désinvesti de nombreux marchés étrangers, notamment de l’Italie et des pays scandinaves, voit sa base française d’abonnés décliner chaque année (le nombre d’abonnés aux offres historiques de Canal+ a enregistré une baisse de 230 000 en 2018). L’Autorité de la concurrence note également, dans la lignée de son avis de mars 2018 relatif à la publicité en ligne (1), que cette révolution numérique s’accompagne « d’une rapide évolution du secteur de la publicité télévisuelle, confrontée à la très forte croissance de la publicité en ligne ». Dans ce nouvel environnement, Continuer la lecture

Réforme de l’audiovisuel et du cinéma : s’inspirer du « service universel » des télécoms pourrait aider à revenir à l’essentiel

Comment faire peau neuve de la réglementation audiovisuelle française, alors que les textes législatifs et réglementaires se sont accumulés depuis plus de 30 ans au point d’être devenus illisibles et obsolètes ? Il existe certaines similitudes entre les télécommunications des années 1990 et l’audiovisuel de 2018.

Par Winston Maxwell et Alya Bloum, avocats, Hogan Lovells

Le système de l’audiovisuel français est si complexe que seuls les spécialistes de la matière le maîtrisent, rendant les conditions d’accès au marché difficile pour les acteurs ne faisant pas partie de l’éco-système existant. Pourtant l’accessibilité et l’intelli-gibilité de la loi sont des objectifs à valeur constitu-tionnelle, et nécessaires selon le Conseil d’Etat pour une régulation saine. Ainsi, au-delà d’une simple réforme visant à amender les textes actuels, pourrait-on envisager une remise à plat de la réglementation audiovisuelle pour la rendre plus simple, lisible, et efficace ?
Il existe certaines similitudes entre les télécommunications dans les années 1990 et l’audiovisuel de 2018 : acteurs historiques régulés, marchés nationaux protégés, bouleversements technologiques et menaces venant d’acteurs non-européens. Comme dans les télécommunications, l’audiovisuel a son propre « service universel », à savoir un noyau de services et d’infrastructures de création, de production et de distribution que l’on souhaite préserver malgré les bouleversements du marché (1). Dans les télécoms, le service universel a été invoqué pour s’opposer à la remise à plat de la réglementation. Les opposants à la libéralisation du secteur soutenaient qu’une réforme entraînerait la perte du service universel.

Financement des blockbusters, chronologie des médias, … :  sans régulation ?
Le service universel était devenu le principal argument pour le maintien statu quo malgré les bouleversements technologiques et la convergence. La menace dans les télécoms venait d’opérateurs alternatifs qui, selon certains, feraient de l’écrémage opportuniste sans investir dans les infrastructures nécessaires au service universel. Au bout de dix ans de réformes, le service universel en télécommunications a été maintenu, avec un financement fondé sur la transparence, la concurrence, l’innovation et l’efficacité économique. Pas question de faire supporter aux nouveaux entrants des coûts inefficaces de l’opérateur historique ! Même si le secteur audiovisuel est plus complexe que celui des télécommunications, on pourrait tirer quelques leçons de l’expérience « service universel » en télécommunications. Première leçon : Définir précisément le périmètre des services et infrastructures à protéger. Quels sont exactement les éléments essentiels de l’écosystème audiovisuel que l’on souhaite préserver, et quelles parties de cet écosystème seraient abandonnées en l’absence de régulation ? En télécommunications, la législation européenne a exigé une définition précise des éléments du service universel. Il en serait de même pour l’audiovisuel : Continuer la lecture

La publicité doit-elle être soumise au consentement quand elle est géolocalisée ?

Avec quatre mises en demeure publiées entre juin et novembre sur la géolocalisation publicitaire, la Commission nationale de l’informatique et des libertés (Cnil) « feuilletonne » sa doctrine en la matière. Or le RGPD européen n’exige pas toujours le consentement préalable des utilisateurs.

Etienne Drouard, avocat associé, et Lucile Rolinet, juriste, cabinet K&L Gates

La Cnil a d’abord publié deux mises en demeure à l’encontre des sociétés Fidzup et Teemo pour défaut de recueil du consentement à la collecte et au traitement de données de géolocalisation à des fins publicitaires. Dès le 3 octobre cependant,
elle mettait fin à la mise en demeure de la société Teemo (1) en décrivant précisément les mesures nouvelles prises par cette dernière pour se conformer à ses injonctions publiques (2). Sans discussion.

Réguler par les médias ou par le droit ?
Puis le 23 octobre, Singlespot (3) subissait à son tour la même mise au pilori de la part de la Cnil (4), et le 9 novembre 2018 (5), la société Vectaury était elle aussi épinglée (6) pour non recueil du consentement à la géolocalisation publicitaire. Jusqu’à présent, la Cnil publiait rarement ses mises en demeure – de quatre à quinze par an au cours des six dernières années – mais la série de publications qui s’est ouverte depuis l’entrée en vigueur du règlement général sur la protection des données personnelles (RGPD) le 25 mai 2018 semble marquer une nouvelle méthode de régulation. Celle-ci repose davantage sur la vindicte médiatique que sur le débat contradictoire, pourtant essentiel à un procès équitable. Elle incarne le souhait de la Cnil de montrer l’exemple (et les dents), tout en laissant aux sociétés intimées la possibilité de se conformer dans le délai qui leur est imparti, sans encourir d’autre sanction que médiatique. Il faut dire qu’une simple mise en demeure suffit pour la Cnil obtienne tout ce qu’elle désire…,
tant le niveau des amendes que peut désormais prononcer la Cnil depuis la date d’entrée en application du RGPD est effrayant (jusqu’à 4 % du chiffre d’affaires mondial consolidé). Au risque d’ancrer une doctrine sans le moindre débat juridique et avec
des raisonnements discutables sur le fond. Discutons-en, donc.
• A chaque finalité son consentement ? La Cnil menace de sanctionner l’absence de consentement des personnes concernées au traitement de leurs données personnelles pour recevoir de la publicité ciblée sur leur téléphone mobile. Pour ce faire, elle se fonde sur un élément de doctrine non expliqué, qui pourrait se résumer à la formule très simple – et très fausse : « Une finalité, un consentement ». Selon cette doctrine, toute personne ayant consenti à la géolocalisation devrait par ailleurs avoir la possibilité de consentir – ou de ne pas consentir – séparément et pour chaque finalité distincte, à chacune des utilisations de sa géolocalisation : contractuelle, publicitaire, etc.
La définition du consentement stabilisée par la directive européenne « Protection des données personnelles » de 1995 (95/46) n’a pas été modifiée par les quatre années d’élaboration du RGPD. Le consentement se définit comme toute manifestation de volonté univoque, libre, explicite, informée et spécifique, par laquelle une personne concernée peut accepter par une déclaration ou un acte positif clair le traitement de ses données personnelles (7), notamment le premier d’entre eux : la collecte de données. Selon les récentes lignes directrices des régulateurs européens (8), le consentement est absolument discrétionnaire. Lorsqu’il est requis, il doit être spécifique à chaque finalité. Il ne peut être soumis à aucune condition, avantage ou détriment. Il est rétractable à l’envi ; il est d’une durée de validité limitée et il doit être renouvelé. Il est indépendant de l’accès à un service, quel que soit le modèle économique en jeu. Ainsi, lorsque le consentement est requis, le traitement d’une donnée est interdit tant qu’un consentement valable n’a pas été exprimé sur la base d’une information complète fournie aux personnes, dénuée de toute manipulation ou omission susceptible de les influencer dans leur libre choix.

Des cookies à la géolocalisation publicitaire
Le consentement est donc un régime d’interdiction a priori, qui déplace l’action de réguler sur les personnes. Ce véritable « droit au caprice », qui place la volonté libre
de l’individu au-dessus de toute autre considération, ne peut constituer le fondement d’aucun service (le consentement se distingue de l’adhésion à un contrat) ni d’aucun modèle économique. En effet, quelqu’un a-t-il déjà donné pareil consentement à l’usage publicitaire de la géolocalisation, sans contrepartie, à un tiers qui ne lui promet rien ? Créé en France en 1978 pour interdire le traitement des données sensibles relatives aux opinions politiques, philosophiques, religieuses ou syndicales, ce consentement-là, absolu et sanctifié, n’a jamais été « lâché seul » dans la sphère économique sans coexister avec des alternatives tout autant protectrices de l’individu (et malgré lui) et économiquement compatibles.
• Géolocalisation, consentement et information. Le consentement à la collecte de données de géolocalisation est exigé par la directive européenne « ePrivacy » (9) de 2002 (2002/58), transposée en droit français dans le code des postes et des télécommunications électroniques (10). Il est d’une nature similaire à l’exigence du consentement à la collecte des données sensibles (11) ou du consentement au dépôt ou à la lecture de « cookies » ou de traceurs en ligne (12).

Des raccourcis trompeurs et dangereux ?
La Cnil a mis en demeure les entreprises concernées au motif du défaut d’information préalable relatif à l’usage des données de géolocalisation à des fins publicitaires. Cette information est requise, quelle que soit la base légale sur laquelle repose la ou les finalité(s) de collecte ou d’utilisation des données. Elle peut, juridiquement, être concomitante à la collecte de la donnée de géolocalisation, mais elle doit en tout état
de cause être préalable à l’usage publicitaire d’une donnée de géolocalisation (13).
Le RGPD n’exige pas toujours le consentement ; il exige une base légale. C’est la faculté de collecter la donnée – de géolocalisation, ou sensible ou de l’identifiant d’un terminal – qui est soumise au consentement et non pas l’usage ultérieur qui sera fait
de cette donnée. Cet usage ultérieur peut être justifié par une nécessité technique, servicielle ou contractuelle, ou une faculté publicitaire ou une obligation légale. Cet usage ultérieur doit donc faire l’objet d’une information des personnes – dans tous les cas. Toutefois, chacun de ces usages postérieurs n’est pas forcément soumis au consentement des personnes. Tout dépendra de la base légale qui fonde chacun de ces usages ultérieurs. En effet, la règle posée par le RGPD n’est pas « une finalité =
un consentement », mais « une finalité = une base légale ». Or, le consentement n’est qu’une des six bases légales retenues par le RGPD et il n’a pas de rang prioritaire sur les autres. Tout dépend de la finalité d’utilisation concernée. La Cnil ne justifie pas en quoi l’utilisation publicitaire des données de géolocalisation collectées avec le consentement des personnes (14), serait-elle-même soumise à un consentement spécifique. En effet, lorsque la finalité d’utilisation d’une donnée est une géolocalisation servicielle, c’est-à-dire strictement nécessaire à la fourniture d’un service ou souscrit par la personne, le consentement discrétionnaire des personnes s’effacera au profit
de la nécessité pour l’entreprise d’exécuter un contrat d’adhésion souscrit par les personnes et qui implique l’utilisation « servicielle » – contractuelle – de la donnée de géolocalisation (15). Tel est le cas pour l’utilisateur d’une application de cartographie routière de type Waze, Plans, Mappy ou Google Maps. Lorsque la collecte des données de géolocalisation est nécessaire à la sauvegarde de la vie humaine (16), le consentement sera écarté et l’utilisation d’une donnée de géolocalisation par les services d’urgence (Police Secours, SAMU, Pompiers) leur permet d’obtenir des opérateurs télécoms la géolocalisation de l’appel d’une personne en détresse. Enfin, lorsque la géolocalisation est nécessaire à l’exécution d’une mission de service public, telle la collecte des points et horaires d’entrée et de sortie d’une section d’autoroute à péage, l’absence du recueil du consentement, matériellement impossible, n’empêchera pas les sociétés d’exploitation d’autoroute de recueillir les données de géolocalisation de leurs usagers.
Concernant la géolocalisation destinée à déclencher l’affichage publicitaire sur mobile, la base légale ne pourra être que l’intérêt légitime prévu par le RGPD et explicitement décrit à son considérant 47. D’ailleurs, quel utilisateur averti serait-il assez « original » pour désirer librement et sans la moindre incitation faire l’objet de publicités géociblées ? Si l’usage publicitaire d’une donnée n’est possible qu’à l’égard des personnes qui y consentent librement, cela signifie en droit et en pratique que l’usage publicitaire est interdit a priori par le RGPD. Or, c’est tout le contraire qui a été arbitré dans le RGPD, malgré la réticence à cet égard des régulateurs nationaux tels que la Cnil. En effet,
le RGPD requiert la démonstration d’un équilibre entre les garanties offertes aux personnes en contrepartie de l’intérêt commercial pour l’entreprise exploitant les données (17). La personne ayant téléchargé une application et ayant expressément consenti à la collecte de ses données de géolocalisation, doit être informée que ses données peuvent être utilisées à des fins de publicité et elle doit pouvoir… s’y opposer, dès lors que cette faculté d’opposition lui est offerte aisément et à tout moment.

Le RGPD n’est pas un texte « à la carte »
Il serait dangereux que le RGPD devienne un texte « à la carte » pour les régulateurs.
Il ne l’est pas pour les justiciables. Ne rompons pas la belle promesse de sécurité juridique et d’harmonisation européenne que l’Union européenne brandit à la face du monde avec le RGPD. Si nous ne tenions pas cette promesse, nous en serions, nous Européens, les principales victimes. @

E-démocratie : la révolution numérique détruit-elle ou enrichit-elle la décision collective?

Cette question sera débattue lors du colloque « Quel avenir pour la décision collective en démocratie ? », le 23 novembre 2018 à l’Assemblée nationale (1).
Le digital permet d’envisager une e-démocratie , mais les citoyens doivent être aptes à déjouer les jeux d’influences et d’infox.

Fabrice Lorvo*, avocat associé, FTPA.

La révolution numérique nous invite à repenser la manière dont les « décisions collectives » (2) sont prises au niveau politique. A ce jour, la décision collective s’exerce sous forme de mandat. Les électeurs désignent des représentants à l’Assemblée nationale et aussi un Président qui nomme un gouvernement. Ce mandat est représentatif (c’est-à-dire général, libre et non révocable), mais pas impératif (3).

E-élaboration des décisions et des lois
Ce système trouvait notamment sa justification dans des contraintes d’espace et de temps. Techniquement, il était impossible – puis difficile ou coûteux – de consulter tous les citoyens en même temps. La révolution numérique nous affranchit dorénavant de ces contraintes. On doit dès lors se demander si ces nouvelles capacités techniques sont de nature à justifier une mutation profonde dans la prise de décision collective.
Le numérique est un outil qui permet de renforcer la décision collective. Du point de
vue technique, la miniaturisation et le développement des télécommunications mobiles permet d’envisager la mise en place d’une démocratie numérique (4) dont l’objectif est, par l’utilisation d’Internet, d’accroître et de faciliter une plus large participation des citoyens au processus de décision et d’action politique et, ainsi, d’améliorer la transparence du processus démocratique. Parallèlement, force est de constater qu’au niveau sociologique, l’acceptation par les citoyens d’une décision prise par une autorité au nom de la collectivité est de plus en plus relative. Toute décision ayant un impact sur plusieurs individus n’est aujourd’hui acceptable que si elle a été préalablement exposée et discutée (5). Cette nouvelle aspiration démocratique s’exerce au niveau de l’information sur la décision à prendre, du débat sur son opportunité et sur son périmètre. Il existe aussi de plus en plus de revendications des citoyens pour pouvoir aussi décider directement.
En France, plusieurs initiatives politiques ont été prise en 2017 pour organiser sur Internet une élection primaire ouverte à tous les citoyens (sous certaines conditions), afin de désigner un candidat à l’élection présidentielle (6). Il y a aussi aussi une aspiration grandissante à un processus de rédaction collaborative : des consultations sont notamment organisées par certains parlementaires (7) pour associer les citoyens à la rédaction de leurs propositions de loi. Le stade ultime de cette démocratie numérique étant de pouvoir consulter en temps réel les citoyens sur tous les sujets. Au-delà de l’enthousiasme que suscite le concept de renouvellement démocratique, on doit s’interroger sur les nombreuses contraintes qu’il implique. Parmi elles : la cybersécurité, d’une part, et la participation, d’autre part. L’évolution vers une démocratie numérique n’est concevable que si elle se réalise dans un environnement informatique entièrement sécurisé : ce que l’on voit à l’écran n’est pas forcément la réalité (8).
Il faut en outre s’assurer, pour les votes électroniques, que ceux qui s’expriment ont bien la qualité d’électeurs, et donc qu’ils sont humains. Concernant la participation cette fois, promouvoir la démocratie numérique suppose une confiance dans le bon sens commun et l’intelligence collective. Elle revient aussi à spéculer sur l’envie de la collectivité des citoyens d’y participer, sachant que l’abstention est en hausse constante depuis 1958. Si l’instauration d’une démocratie numérique ne coïncide pas, simultanément, avec une mobilisation citoyenne pour y participer, il est plus que probable que la démarche sera un échec. Au pire, la décision collective ne sera plus que l’expression de la volonté d’une minorité active ou de groupes d’intérêt. Ce renouvellement pose aussi une question socialement difficile à aborder, surtout dans l’environnement narcissique créé par le numérique : tout le monde peut-il ou doit-il avoir un avis sur tout ?

Intérêt général et intérêts particuliers
Les facilités techniques offertes par le numérique sont sans effet sur la complexité du processus d’élaboration d’une décision et notamment d’une loi. Une décision ne peut être prise qu’en considération de contraintes horizontales (une décision qui semble juste dans un domaine ne doit pas avoir pour effet de créer une injustice dans un autre) et de contraintes verticales (une décision doit prendre en considération à la fois notre passé pour des questions de cohérence et l’avenir, à savoir l’intérêt des générations futures). Les facilités précitées sont aussi sans effet sur la technicité de certains sujets qui ne peut être ignorée. Enfin, on doit se demander si tous les sujets peuvent faire l’objet d’une consultation ou d’une décision collective. En principe, les décisions doivent être prises en fonction d’objectifs dictés par l’intérêt général. Or ce dernier n’est pas mathématiquement la somme des intérêts particuliers. Prenons l’exemple du tabac,
qui est probablement l’un des plus grands fléaux de santé publique : pour réduire la consommation, le gouvernement a décidé un train de hausses successives des prix jusqu’en novembre 2020. Cette décision est objectivement pertinente d’un point de
vue social, mais il est peu probable qu’elle aurait fait consensus notamment dans la catégorie des fumeurs si les citoyens avaient été consultés. Certaines décisions doivent donc être prises contre l’intérêt immédiat de leurs bénéficiaires. De la même manière, le caractère d’intérêt général peut être reconnu par les citoyens tout en étant vigoureusement refusée par ceux qui ont à le subir (9).

Influence collective et manipulation
Le numérique est aussi un outil qui permet d’influencer la décision collective. Notre démocratie repose sur le postulat que l’électeur est capable (il sait ce qu’il fait). Cependant, cette capacité peut être fortement altérée par le numérique. Au niveau international, il existe dans l’histoire récente au moins deux cas aux Etats-Unis qui semblent le suggérer : en 2016, des autorités de sécurité intérieure américaines (10) ainsi que le FBI (11) ont dénoncé des interventions du gouvernement russe pour influencer les élections américaines (notamment par les révélations sur les e-mails d’Hillary Clinton publiés sur les sites DCLeaks.com and Wikileaks). Toujours en 2016,
il est prétendu que l’élection de Trump a pu être favorisée par le recours au Big Data. Le candidat Trump a fait appel à la société Cambridge Analytica dont l’activité consiste à fournir aux entreprises et aux mouvements politiques des stratégies et opérations de communication clés-en-main basées sur l’analyse des données à grande échelle. Cette société annonce « utiliser les données pour changer le comportement du public » . Comme l’a reconnu Facebook (12), Cambridge Analytica aurait siphonné les données de 87 millions des utilisateurs du réseau social pour identifier et solliciter dans la société civile américaine le très fort courant anti-élites qui pouvait favoriser l’émergence d’un candidat atypique.
Ces deux événements ont, de manières différentes, participé à influencer la décision collective dans le choix d’un Président en utilisant le numérique. La première a consisté à intervenir auprès de l’opinion publique pour discréditer un candidat par l’information ; la seconde a permis d’identifier et de solliciter des électeurs qui auraient pu être passifs, et ce uniquement en les ciblant à l’aide de leur data. S’agissant de la propagande, il a toujours existé un lien intime entre opinion publique et décision collective. En conséquence, les tentatives d’influence de l’opinion ne sont pas nouvelles. Cependant ces manipulations ont, avec le numérique, une efficacité nouvelle incommensurable du fait de l’immédiateté de la diffusion, de sa mondialité et de son caractère potentiellement viral. En d’autres termes, les outils de propagande devaient, par le passé (13), être fabriqués mais leurs sources permettaient de les identifier. Aujourd’hui, Internet et les réseaux sociaux constituent un espace existant, gratuit et souvent anonyme au niveau de la source. S’agissant des données collectées dans le monde numérique, leur utilisation va exposer notre société à des maux inédits. En effet, en principe, celui qui convoite les suffrages tente de faire adhérer le public à son projet. Aujourd’hui, avec l’analyse du Big Data, ce sont les algorithmes qui vont probablement prédire les convictions à affirmer et les personnes à solliciter.
Que ce soit par les infox (fake news) ou par le profilage avec des data, le numérique rend possible une sollicitation individuelle nouvelle qui permet d’agir sur le comportement des citoyens. Ces démarches semblent permettre l’activation des comportements individuels. Dans son dernier livre (14), l’historien israélien Yuval
Noah Harari parle de possibilité de « pirater les êtres humains ».
En conclusion, il est fort probable que le renouveau démocratique espéré par l’utilisation de l’outil digital aboutisse à un double effet. D’un côté, une amélioration visible de la décision collective par la création d’un lien plus étroit entre le citoyen et son représentant, avec deux types de flux (du représentant vers le citoyen en renforçant la transparence et l’information, et du citoyen vers le représentant pour l’expression d’une opinion). De l’autre, et « en même temps », une altération invisible de la décision collective du fait des interventions sur la volonté des citoyens (en utilisant l’émotion et l’intérêt individuel plutôt que la raison et l’intérêt collectif). L’un des principaux remparts pour lutter contre la manipulation des individus par « l’information », c’est de cultiver l’esprit critique de chaque citoyen et faire de l’éducation au média. Pour ne pas subir demain les effets négatifs de la révolution numérique, il faut plus que jamais investir aujourd’hui et massivement dans l’Ecole de la république. Nous commençons aussi à payer très cher la démarche de gratuité des médias, accélérée par le numérique. S’il n’est pas contestable que la presse soit « le chien de garde » de la démocratie, il faudrait rapidement réapprendre « à nourrir le chien ».

Une réflexion éthique s’impose
S’agissant des data, leur traitement de masse va jouer un rôle décisif très prochainement au niveau politique, et donc au niveau de la décision collective. Notre société a pris conscience de l’importance des données, notamment avec le RGPD (15). Il faut aller encore plus loin dans la réflexion sur qui doit contrôler les Big Data – le secteur privé ? L’Etat ? – et jusqu’où peut-on les utiliser ? On doit conserver à l’esprit que nous maîtrisons mal la portée de la nouvelle connaissance que nous apportera le Big Data. Dans l’exploration de ce nouveau monde, les envolées techniques permises par le numérique doivent plus que jamais être contrebalancées par une réflexion éthique. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.

Smart Cities : clarifier l’objectif pour trouver intelligemment le chemin et… l’adhésion du public

Les villes intelligentes sont en vogue partout dans le monde, mais les financements ne suivent pas toujours. « Smart City » désigne des projets
de nature bien différente et, parfois, sert à camoufler précisément l’absence
de moyens, d’ambition voire d’adhésion des populations.

Par Rémy Fekete, avocat associé, Jones Day

La « Smart City » a été placée au coeur de la vision européenne
« Horizon 2020 » lancé il y a quatre ans (1). Ce programme vise
à la mise en place de réalisations « durables », sur un mode
« collaboratif, véloce, économe et frugal » en énergie. Derrière des mots qui sonnent comme des sésames administratifs, l’on trouve pourtant des budgets conséquents, placés sous la gouvernance d’une agence européenne – « Innovation and Networks Executive Agency » (INEA) – qui a déjà déboursé, quand même, de l’ordre de 300 millions d’euros en quatre ans pour une dizaine de projets comportant chacun plusieurs villes européennes de pays différents (2).

Des projets en voie de développement
Le concept de Smart City fait florès depuis un peu moins de dix ans dans les pays en développement. Gage de meilleure gouvernance et de projets innovants, il apparaît parfois comme le sésame permettant de débloquer des fonds des bailleurs internationaux. Ainsi, de la Jordanie aux côtes africaines, a émergé un véritable marché hautement compétitif de projets baptisés, parfois un peu rapidement, de Smart Cities, qui tentent, souvent en opposition les uns aux autres, d’attirer les capitaux étrangers. La période des « zones franches » est passée de mode, vive les « villes intelligentes ». La composante technologique de ces villes est pourtant fort variable. En Arabie saoudite, par exemple, un équipementier a pu prendre la direction d’une ville entièrement nouvelle, intégralement pensée dès son édification comme une citée totalement connectée. La fibre court dans chaque rue et connecte 100 % des logements et entreprises. Le système de vidéosurveillance est intégral et interconnecté avec les systèmes de surveillance internes aux habitations. Les digits des immeubles et parkings reliés à des systèmes de « domotique » permettant d’actionner l’ensemble de ses installations à distance (3).
Autre exemple : Tunis Telecom City (TTC) était un projet « greenfield » (créé ad hoc) prometteur, annoncé il y a dix ans pour un investissement potentiel de 3 milliards de dollars, mais qui manquait de contenus. Développé au bord de la méditerranée dans ce qui n’était qu’un terrain vague, le TTC avait pour ambition de se positionner comme un « hub numérique » régional et d’accueillir les entreprises à valeur ajoutée du secteur. Les atouts n’étaient pas minces si l’on cumule : le cadre fiscal et douanier dérogatoire et particulièrement attractif ; la bonne réputation de la Tunisie en matière de cadre de vie, de santé, de niveau scolaire ; la disponibilité de cadres ingénieurs informaticiens locaux ; et l’inscription de la ville intelligente côtière dans le cadre stratégique global du plan d’aménagement numérique haut débit adopté par le gouvernement. Las, les soubresauts politiques affectant la Tunisie depuis le printemps arabe de 2011, et surtout le manque d’investissement porté sur les éditeurs de contenus à vision régionale, ont eu raison de ce projet prometteur. Le projet tunisien n’est pas le seul à avoir vu une ambition globale de nouvelle ville intelligente numérique se transformer peu à peu en une énième zone franche. Ce qui plaçait le projet dans une concurrence délétère au mieux-disant fiscal par rapport à d’autres pays en développement, précisant ceux dans lesquels les ressources budgétaires font défaut.
Plus au Sud, le projet Sèmè City (4) lancé en 2017 avec un budget pluriannuel de 207 milliards de francs CFA (315 millions d’euros environ) dans les prochaines années veut faire la démonstration d’un « Bénin révélé » – du nom du programme d’investissement et de développement – en dédiant un territoire nouveau à une ville entièrement nouvelle et connectée, dédiée à l’enseignement, à la recherche et à l’incubation de start-up.
Ce qui n’est pas évident lorsque l’Afrique demeure le continent le moins connecté du monde, mais les atouts ne manquent pas : en plus des arguments habituels des zones franches (déductions fiscales et douanières), Sèmè City pourra proposer à ses partenaires la connectivité exceptionnelle que peut fournir le câble sous-marin international ACE (l’Africa Coast to Europe, dont environ 20 % seulement des capacités sont utilisées), et la proximité immédiate du plus grand marché africain : le Nigéria.

Des applications orientées populations
Le projet Sèmè City est entièrement concentré depuis sa genèse sur les contenus à valeur ajoutée à développer localement, et visant des publics ou clientèles cibles en Afrique de l’Ouest. Développer un savoir-faire éditorial local, enseigner les techniques de l’audiovisuel, imaginer les futures médecines douces adaptées aux maladies tropicales, favoriser l’incubation de start-up locales, au service des publics de la sous-région, sont autant d’orientations à même de favoriser l’implantation effective d’investisseurs internationaux, le cadre fiscal attractif n’intervenant qu’en appui.
De Londres à Cotonou, de Amman à Dakar, les projets de Smart Cities germent
dans le monde mais ne fleurissent pas toujours. Au-delà des effets d’annonce et du déploiement d’infrastructures de télécommunications, l’essentiel est ailleurs. Il consiste à donner un contenu réel, de la chair et du goût, à des applications sincèrement orientées vers les besoins des populations.

Smart City, Smart Grid, Smart… Data
Les consommateurs français semblent pour certains encore réticents à livrer les indicateurs de leur vie personnelle au grand nuage du Big Data. Le pêcheur de Sèmè ne sera à défaut pas plus prêt à s’inscrire dans un développement numérique que l’agriculteur de Saint-Macaire (Gironde) n’est enclin à laisser s’installer un compteur électrique connecté Linky. La multiplication des oppositions farouches aux projets de changements technologiques de toute nature rend indispensable un changement de paradigme s’agissant de la prise en considération de la composante humaine. En France, une étude récente dénombre pas moins de 25 Smart Cities, la plupart installées dans des agglomérations anciennes de plus de 200.000 habitants (5). La plupart de ces villes intelligentes disposent d’un service d’opérations data (notamment pour permettre aux usagers de circuler de manière plus intelligente), un wifi linéaire disponible pour le public (lire aussi ci-contre sur le «Wifi4EU » européen), une plateforme participative ou encore des services d’eadministration. Le mobilier urbain, lui, est rendu communiquant et certaines agglomérations vont jusqu’à installer un éclairage public intelligent, et même une collecte intelligente des déchets.
La ville intelligente se définit comme celle d’une agglomération qui met à profit les technologies de l’information pour améliorer la qualité des services rendus et réduire ses coûts. Selon Information Age (6), c’est Bill Clinton aurait mis à l’honneur ce concept en 2005. Depuis, les projets les plus innovants ont fini par imaginer des cités idéales, dignes des romans de science-fiction de Barjavel, dans lesquels l’onirisme rivalise avec une angoisse sourde. La Smart City, qui repose sur la conviction que le numérique, permet de fournir des services parfaitement adaptés à la réalité des existences et ainsi améliorer la vie en communauté au sein d’environnements urbains. Elle nécessite bien évidemment la disponibilité de moyens de communication haut débit. Il n’est pas inutile de rappeler ce postulat, alors que le niveau de qualité de service des accès à Internet demeure notoirement insuffisant au sein de l’Union européenne. La poursuite du déploiement de la fibre, notamment dans le cadre de projets FTTH (7), et l’avènement futur de la couverture 5G devraient aboutir à fournir au citoyen européen, à tout le moins à celui qui vit en ville, la connectivité suffisante à l’utilisation de services administratifs dits « intelligents ». Surtout, le déploiement de réseaux de collectes de données via l’Internet des Objets est en cours. On estime à plus de 50 milliards le nombre d’objets connectés dans le monde d’ici deux ans (2020). Tout est transformé
en capteur de données : l’intégralité du mobilier urbain, les véhicules, la plupart des bâtiments, des objets de la vie quotidienne, les appareils électroménagers, l’outillage sportif et jusqu’aux habits. Comme dans la chanson populaire, « tout, tout, tout, vous saurez tout » (8) sur l’intimité des comportements de vos prochains. Ou presque car, gage de protection des données personnelles, celles-ci sont collectées par un opérateur de réseau IoT (9), elles sont traitées par un agrégateur et leurs enseignements soigneusement sélectionnés en fonction de chaque type de clientèle.
Certes, l’affaire « Cambridge Analytical » touchant Facebook, et son rôle dans le basculement des grands électeurs des Etats du Michigan, du Wisconsin et de la Pennsylvanie en faveur de Donald Trump, ont mis le projecteur sur la facilité d’exploitation de données personnelles pour orienter les convictions d’une partie de
la population. Les armes juridiques ont sans doute évolué depuis, du moins en Europe à la faveur du RGPD (10), il reste que les réticences de la population à l’irruption de collecteurs de données personnelles dans leur vie personnelle ont manifestement été minorée. Les nombreuses oppositions au déploiement du compteur Linky en est une illustration (11). Pourtant cet équipement est au cœur des nombreux projets de Smart Cities et de leur promesse de « smart grid », réseau de distribution d’électricité intelligent : le compteur indique la consommation en temps réel, avec la promesse d’une réduction significative de la consommation des ménages (12). Il promet même
à terme une orientation bidirectionnelle, ce qui devrait permettre à chacun, grâce à
des sources individuelles de production d’énergie (13), de devenir tour à tour consommateur ou fournisseur d’électricité pour son voisinage. @

ZOOM

Wifi4EU : du Wifi gratuit en ville pendant au moins trois ans
L’Union européenne a placé l’accès Internet au centre de sa stratégie de marché unique numérique. L’initiative Wifi4EU est destinée aux communes européennes qui peuvent candidater selon une procédure relativement simple. L’enjeu est l’attribution
de « coupons » de 15.000 euros par appel à candidatures. Cette somme a pour objet l’installation d’un point d’accès Wifi et sa mise en fonctionnement dans un « centre de vie publique ». Il restera à la commune de prendre en charge le coût de l’appel d’offres, la mise en place du réseau de collecte si nécessaire et le coût de la connectivité, tout en s’engageant à fournir un accès totalement gratuit aux utilisateurs pendant une durée d’au moins trois ans. @

La France se voit déjà en paradis réglementaire de la blockchain et des crypto-monnaies

La France travaille à une nouvelle réglementation financière adaptée à la blockchain et aux cryptomonnaies, mais sans qu’elle ne soit trop contraignante afin d’attirer acteurs et investisseurs, et Paris espère ainsi devenir aux yeux du monde un « label » de sérieux dans ce domaine innovant.

Par Mahasti Razavi, Avocate associée, et Alice Barbet-Massin, doctorante, August Debouzy

Devenue incontournable dans la pratique bancaire et financière (transmissions de titres, modes de financement, institutions de registres, …), la technologie blockchain s’impose clairement en France. En réaction à ces transformations rapides,
les pouvoirs publics tentent de s’adapter – comme en attestent la publication en 2018 des rapports « Tolédano » (juin), « Landau » (juillet), « OPECST » (juillet) (1), les missions d’information parlementaires sur les crypto-actifs et la blockchain, ainsi que le projet de loi « Pacte » – et souhaitent faire
de la France un pays attractif pour ses entrepreneurs.

La France dispose d’une longueur d’avance En l’absence de définition juridique, la blockchain (ou « chaîne de blocs ») peut être définie comme une technologie distribuée qui permet le transfert de valeur, fonctionnant de pair-à-pair, sans tiers de confiance, selon un consensus au sein du réseau. Chaque « bloc » regroupe des transactions vérifiées et validées par les participants du réseau. Ces blocs comportent la référence du bloc précédent permettant ainsi d’en déterminer l’ordre (d’où le terme « block-chain »). Les transactions sont ensuite accessibles dans un registre public et infalsifiable.
Des précisions terminologiques sont apportées dans le vocabulaire « Informatique et Internet » du 23 mai 2017 qui définit la blockchain comme un « mode d’enregistrement de données produites en continu, sous forme de blocs liés les uns aux autres dans l’ordre chronologique de leur validation, chacun des blocs et leur séquence étant protégés contre toute modification » (2).
Au fil des pratiques et du temps, différentes applications de la technologie blockchain se sont dégagées :
• Le transfert d’actifs numériques : il existe actuellement 1977 crypto-actifs tels que bitcoin, ether, ripple, … ;
• La certification de données comme cela est le cas pour le registre blockchain des identifiants créanciers SEPA de la Banque de France. Il y a également, par exemple,
la blockchain de Carrefour, développée par Ownest, qui vise à tracer les emballages réutilisables entre les entrepôts, les transporteurs indépendants et les magasins de proximité ;
• Les smart contracts (ou contrat intelligent) : le code organise de manière automatisée l’exécution des termes et conditions d’un contrat. Par exemple, les smart contracts (3) développés par Axa (Fizzy) permettent le remboursement automatique des indemnités d’assurance prévues dans un contrat d’assurance suite au retard d’un avion ;
• Les « Initial Coin Offering » (ICO), ou offres initiales de jeton : ce sont des opérations de levée de fonds par offre au public, donnant lieu à une émission de
jetons numériques (ou « tokens »), destinée à financer le développement d’un projet par l’émetteur (par exemple, Legolas – l’ICO la plus importante de 2018 en France – a levé 34,92 millions de dollars). Ces jetons peuvent représenter un droit à des revenus, des dividendes, une part dans la gouvernance, … La France dispose d’une longueur d’avance sur la valeur juridique de la certification de données dans la blockchain. Le législateur français est le premier à avoir ouvert la voie à des applications légales de blockchain avec l’introduction du « dispositif d’enregistrement électronique partagé »
au sein des ordonnances du 28 avril 2016 (n°2016-520) en matière de mini-bons et
du 8 décembre 2017 (n°2017- 1674) en matière de titres financiers non cotés.
L’objectif initial était de permettre la modernisation de produits de placement et le remplacement des registres financiers classiques de titres, et ce par des protocoles blockchain dématérialisés. Loin d’être un simple outil d’innovation, ces blockchains-registres se sont vus accorder à cette occasion une valeur légale : soit, une efficacité juridique, une opposabilité aux tiers et une valeur probatoire pour ces inscriptions dans la blockchain (4).

Un cadre législatif souple pour les ICO
Avec le projet de loi relatif à la croissance et la transformation des entreprises, dit
« Pacte » (5) (enregistré le 19 juin 2018), la France réfléchit à un cadre législatif pour les ICO, ces levées de fonds par émission de jetons numériques. L’article 26 de ce projet de loi envisage d’intégrer au sein du Code monétaire et financier (CMF) un nouveau chapitre intitulé « Emetteurs de jetons ». Ce chapitre est composé de sept articles (L.552-1 à L.552-7) et projette d’établir un régime juridique souple en France pour les ICO. En effet, l’Autorité des marchés financiers (AMF) serait compétente pour délivrer un visa aux porteurs d’un projet souhaitant émettre des jetons pour financer
ce projet ou une activité. En contrepartie, les émetteurs de jetons devront remplir un certain nombre de garanties, et ce même après la levée de fonds, sous peine de se
voir retirer ce visa.

Les garanties des émetteurs de jetons
Ces garanties consistent, d’une part, à ce que l’émetteur des jetons doit être une personne morale établie ou immatriculée en France et qu’il mette en place tout moyen permettant le suivi et la sauvegarde des actifs recueillis dans le cadre de l’offre (6). D’autre part, ces garanties concernent le « white paper » (ou document d’information délivré avec le projet) qui doit avoir un contenu exact, clair et non trompeur (7). Au cours des discussions parlementaires, cet article 26 a été adopté en première lecture par l’Assemblée nationale. Ainsi, cette disposition permettrait de clarifier les règles applicables à ces levées de fonds, pour inciter les émetteurs à se responsabiliser d’un côté, et rassurer les investisseurs, de l’autre. En effet, les acteurs sérieux auront la possibilité de solliciter optionnellement l’AMF pour « valider » leur projet en France et les investisseurs désireux d’éviter les fraudes pourront acquérir sereinement des jetons.
Le marché français des ICO – encore modeste, pour l’heure, comparé à ses analogues américain, suisse, singapourien, caymanais ou encore maltais – pourrait devenir plus attractif grâce à cette législation. Le succès de l’école suisse des ICO, qui a largement encouragé leur émergence et publié un guide pratique sur l’assujettissement fiscal des jetons (8) est un repère à considérer pour l’évolution des ICO souhaitée en France. D’autres sujets parlementaires sont en discussion et les réflexions soutenues. Le rapport « Landau », publié le 4 juillet 2018, a conclu sur le besoin d’une action publique ciblée en matière de crypto-actifs (9). Aussi, les deux missions d’information de l’Assemblée nationale, l’une sur les monnaies virtuelles (10) et l’autre sur les usages des blockchains (11), ont multiplié les auditions d’experts et ont permis de nourrir la construction de cette nouvelle règlementation. Au-delà du seul cadre des ICO, lors des discussions du projet de loi « Pacte » en commission spéciale, les députés sont allés plus loin en proposant des amendements variés portant sur :

• l’extension du visa optionnel de l’AMF aux autres prestataires de la crypto-économie (12) : l’objectif est de permettre à l’AMF d’évaluer aussi les bonnes pratiques sur le marché secondaire sur lequel s’échangent les jetons émis par les entreprises. Cet amendement a été retiré pour qu’il y ait, tout d’abord, une réflexion sur la question de savoir si ce visa relèvera de la compétence de l’AMF ou de l’ACPR. Puis, exerçant des métiers spécifiques, les plateformes et autres intermédiaires feront l’objet d’une proposition de régime propre consacrant une solution technique différente de celle des ICO.
• un droit au compte : face aux refus des banques d’ouvrir des comptes de dépôt aux acteurs de la blockchain, un certain nombre d’amendements ont été déposés (13).
L’un d’eux est allé jusqu’à proposer un droit au compte général auprès de la Caisse des dépôts après trois refus d’ouverture (14). C’est finalement le droit au compte spécifique à l’émetteur d’ICO qui a été adopté (15).
• la preuve blockchain : outre les ordonnances « mini-bons » et « blockchain » spécifiques, il n’existe pas pour l’instant de texte général reconnaissant la portée probatoire de l’ancrage d’une donnée dans la blockchain. Plusieurs amendements
ont été déposés en ce sens. Ils visaient à consacrer légalement la preuve de l’existence et de la date jusqu’à preuve du contraire des enregistrements de données dans la blockchain publique ou privée (16). Ces amendements qui prévoyaient une modification de l’article 1358 du code civil, n’ont finalement pas été retenus, bien qu’une réforme du code civil était aussi soutenue par le rapport « Tolédano ».
• le droit de propriété dans une blockchain de l’actif dans lequel un fonds professionnel spécialisé investit (17).
• le dépôt de brevet : un amendement a été déposé tendant à moderniser le dépôt de certificat d’utilité et les potentielles futures demandes provisoires de brevet permettant ainsi leur enregistrement, datation et certification auprès de l’Institut national de la propriété industrielle (Inpi) par l’intermédiaire d’une blockchain (18). Ce dernier a finalement été retiré avant discussion.

En définitive, le projet et l’actuelle règlementation française sur la blockchain – sécurisée et innovante – devrait être de nature à inciter les acteurs de la blockchain à s’installer en France alors que certains Etats, notamment aux Etats-Unis, soumettent leurs acteurs de la blockchain à des règles particulièrement contraignantes (BitLicence New Yorkaise, Securities Act, lois anti-blanchiment, …). La France veut s’inscrire, en effet, dans une logique d’ouverture et d’encadrement souple des autorités publiques permettant à la fois la protection, et l’encouragement des acteurs de la blockchain. Pour accompagner ces réflexions parlementaires et ce projet de règlementation favorable, l’Autorité des normes comptables (ANC) et Bercy, dans son projet de loi de Finances 2019, travaillent à définir un cadre comptable et fiscal précis pour les émetteurs et les investisseurs.

D’une approche nationale à transnationale
Ainsi, les retours concrets de cette règlementation devraient, dès mars ou avril 2019 (date approximative de la promulgation de la loi « Pacte »), permettre de savoir si la France sera réellement la nouvelle terre d’asile pour le marché de la blockchain. Plus largement, des réflexions normatives européennes et internationales en cours devront compléter cette démarche nationale sur la blockchain, par essence transnationale. @

Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

L’intelligence artificielle (IA) – qui regroupe plusieurs technologies dont l’apprentissage machine (ou apprentissage automatique, en anglais machine learning) – est
une forme avancée de logiciel.
Un logiciel est simplement un ensemble de programmes destiné à faire fonctionner un système informatique. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut-il traiter l’IA différemment ?

Bon équilibre entre sécurité, prix et utilité
Examinons d’abord la question de la responsabilité civile. Sur le plan économique, les règles de responsabilité civile sont destinées à encourager le déploiement de nouvelles technologies, tout en s’assurant que ces technologies s’entourent de mesures de sécurité adéquates. Si les règles de responsabilité sont trop strictes, certaines technologies utiles pour la société ne seront pas déployées. Si les règles de responsabilité sont trop laxistes, la technologie créera des dommages pour la population dépassant largement les bénéfices de la technologie. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologie utile mais relativement dangereuse car responsable de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmenterait sensiblement son prix ! Comme pour la voiture, le défi pour l’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système d’IA – par exemple, un constructeur automobile ou une banque – sera incitée par les règles de responsabilité civile à s’assurer de la sécurité du système. L’une des particularités des systèmes d’apprentissage machine est leur utilisation de données d’entraînement. Le concepteur du modèle d’apprentissage fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit-il d’un défaut dans le modèle d’origine, ou est-ce que l’anomalie provient des données d’apprentissage de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système d’IA de préciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabilité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligent grâce aux données d’entraînement ; le propriétaire des données d’entraînement pourrait donc exiger une rémunération. Les contrats devront également prévoir des dispositions pour garantir que le modèle amélioré ne peut pas indirectement révéler des données confidentielles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraînement. Entre les entreprises, la plupart des questions de responsabilité seront régulées par contrat. Les décisions d’un système d’apprentissage automatique sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’application des règles de responsabilité civile et pour la régulation en général – les tribunaux, experts et régulateurs doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabilité à l’acteur approprié. De nombreux travaux sont actuellement consacrés aux problèmes de la transparence et de l’« auditabilité » des algorithmes, à l’« explicabilité » et à la responsabilisation (accountability) des décisions IA (1). Ces travaux ne font pas consensus. Sur le thème de la transparence et de l’auditabilité des algorithmes, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétaire qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparent et audité de manière à découvrir l’origine des erreurs,
et à pouvoir les corriger. La chancelière d’Allemagne, Angela Merkel, a récemment plaidé pour la transparence des algorithmes.

L’Europe veut de la transparence
En Europe, la transparence est également au cœur du règlement général sur la protection des données (RGPD) qui énonce que pour les décisions automatisées basées sur des données personnelles et qui créent des effets juridiques, les individus ont droit à « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement ». Le deuxième camp considère que l’idéal de transparence n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithmes sophistiqués (réseaux de neurones), et d’autre part, que rendre transparents les algorithmes menacerait à terme les investissements et briserait les secrets. En France, la Commission nationale de l’informatique et des libertés (Cnil) a semble-t-il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithmes. Sur le thème de la discrimination ensuite, les débats également sont animés.

Secret, discrimination et responsabilité
Des travaux récents aux Etats-Unis ont montré que des algorithmes étaient biaisés envers certaines catégories de personnes, et conduisaient donc à des discriminations. L’originalité du préjudice vient cependant d’un problème nouveau lié à l’IA : les algorithmes ont appris à discriminer à partir de données d’entraînement qui étaient biaisées, ou par simple association
de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc.
Les algorithmes n’ont pas intentionnellement discriminé : dès lors qui est responsable ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimination (non-intentionnelle) sans un accès à l’algorithme ?
Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologie IA a produit le résultat ? Dernière question liée au cas particulier d’un algorithme causant une discrimination : comment corriger une discrimination sur le genre, par exemple, s’il est impossible de collecter des informations personnelles sur le genre (du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut-il créer une personnalité juridique pour les systèmes d’IA ? Pour que
la responsabilité civile puisse fonctionner, il faut identifier une personne responsable, et cette personne devra disposer de suffisamment de ressources ou d’assurances pour dédommager les victimes. En matière d’IA, la personne responsable sera généralement l’entreprise qui exploite le système – la banque ou le constructeur automobile par exemple. Cette personne sera généralement responsable en première ligne, et se retournera ensuite contre ses fournisseurs du système IA en amont. L’entreprise exploitante sera généralement assurée contre les risques de responsabilité civile, et vérifiera que ces fournisseurs en amont le sont également. La création d’une personnalité juridique pour les systèmes d’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilité de la personne morale responsable, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétaire du navire sera généralement insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuellement la recherche d’autres personnes morales responsables à travers des théories de responsabilité indirecte (vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de l’IA ? Deux points de vue s’opposent. Selon le premier point de vue, l’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économiques et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateurs sectoriels. Selon l’autre point de vue, les risques de l’IA sont étroitement liés à chaque type d’exploitation, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de l’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques
de l’IA dans les voitures autonomes.
Un super-régulateur de l’IA ne rajouterait rien par rapport aux régulateurs sectoriels spécialisés, et pire, créerait une couche de régulation potentiellement en friction avec la régulation sectorielle. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologies en mouvement. Comme un médicament, une régulation peut créer des effets secondaires imprévus (2). La régulation de l’Internet a évolué de manière progressive en s’appuyant sur la législation existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligence artificielle »,
il faudrait privilégier une série d’améliorations de la réglementation existante. Les normes ISO (3) en matière de sécurité des véhicules sont déjà en cours de modification pour intégrer l’IA (4). Le régulateur américain de la santé, la Food & Drug Administration (FDA), a développé des procédures pour homologuer des dispositifs médicaux utilisant l’IA (5). Le seul problème lié à cette approche sectorielle est l’apparition de risques cumulatifs pour la société qui échapperaient à la vigilance des régulateurs sectoriels. Est-ce que la généralisation de l’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutions démocratiques ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateurs sectoriels.

Observatoire des effets de l’IA sur la société ?
Un récent rapport de la fondation World Wide Web (6) prend l’exemple
des « fake news » propagées à travers les réseaux sociaux : quelle structure faut-il mettre en place pour changer les incitations des acteurs à communiquer des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsables ? La Commission européenne favorise en premier lieu des solutions d’auto-régulation pour limiter l’impact de la désinformation sur la société. La surveillance de ce type de risque plus diffus pourrait être confiée à une institution dédiée – une sorte d’observatoire des effets de l’IA sur la société. L’objectif de cette institution serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut-il définir les indices ! @