Blocage du site «Democratieparticipative.biz»:des obligations à la charge des FAI mais… sans les coûts

Contrairement au jugement de l’affaire « Allostreaming » de 2013, où les fournisseurs d’accès à Internet (FAI) avaient dû prendre leur charge les coûts
de blocage (ce qui fut confirmé en cassation en 2017 (1)), le jugement
« Democratieparticipative.biz », lui, les en dispense en raison de l’intérêt général.

Par Olivia Roche, avocate, et Prudence Cadio, avocate associée, cabinet LPA-CGR avocats

Dans un jugement du 27 novembre 2018 (2), le Tribunal de grande instance de Paris a ordonné à neuf fournisseurs d’accès à Internet (FAI) de bloquer, de manière définitive et illimitée dans le temps, l’accès
à au site Internet au nom trompeur
« Democratieparticipative.biz ». Celui-ci diffusait depuis 2016 des publications à caractère haineux.

Neuf FAI appelés à bloquer l’accès au site Internet
Cette décision est particulièrement notable en ce qu’elle illustre pleinement les obligations qui peuvent être mises à la charge des FAI, lorsque les autres acteurs
de la chaîne de responsabilités prévue par la loi « pour la confiance dans l’économie numérique » de 2004 – loi dite « LCEN » (3) – sont inaccessibles. Le site web
« Democratieparticipative.biz » diffusait très largement des « mots d’une extrême violence et qui exhortent en même temps au passage à l’acte violent contre des personnes en raison de la religion, de l’origine ou de l’orientation sexuelle des intéressés ». Le procureur de la République de Paris a ainsi – après notamment une question d’une députée en juillet 2018 auprès du gouvernement (4)– assigné en référé les neuf principaux FAI français (SFR, SFR Fibre, Orange, Free, Bouygues Télécom, Outremer Telecom, la Société réunionnaise du radiotéléphone/SRR, Orange Caraïbe
et Colt Technologie Service) pour qu’il leur soit enjoint de prendre toutes les mesures nécessaires pour bloquer définitivement l’accès au site « Democratieparticipative.biz » depuis le territoire français. Le procureur de la République de Paris demandait également que ces mesures soient ordonnées sous astreinte de dix mille euros par
jour de retard et dans un délai de quinze jours maximum à compter de la décision à intervenir.
Comme le rappelle avec précision la décision du Tribunal de grande instance de Paris, le procureur de la République de Paris s’est tourné vers les FAI faute d’avoir pu identifier ni les auteurs des publications, ni l’éditeur ou l’hébergeur du site Internet litigieux. En effet, la LCEN instaure un régime dit de « responsabilité en cascade » qui autorise les autorités judiciaires à ordonner aux FAI des mesures de blocage, mais à condition que l’éditeur ou, à défaut, l’hébergeur du site en question ne soient pas identifiables (5). En l’espèce, malgré plusieurs plaintes déposées par des personnes physiques identifiées dans les publications à caractère haineux, le profil anonyme de leurs auteurs n’a pas pu être levé. De même, les mentions légales du site « Democratieparticipative.biz », telles que requises par la LCEN, ne permettaient pas d’identifier son directeur de publication ou son hébergeur : les différentes investigations menées ont conduit à des sociétés américaines qui n’ont pas répondu aux réquisitions judiciaires qui leur ont été adressées. Au regard des nombreux procès-verbaux versés par le procureur de la République de Paris justifiant de l’ensemble des démarches entreprises, le Tribunal de grande instance de Paris a jugé l’action à l’encontre des neuf FAI recevable compte tenu de « l’impossibilité d’agir efficacement et rapidement contre l’hébergeur, de même que contre l’éditeur ou l’auteur du contenu litigieux » (6).
L’action à l’encontre des FAI s’est ainsi révélée particulièrement efficace pour atteindre un site Internet dont les auteurs, éditeurs et hébergeurs étaient inaccessibles ou non-identifiables. La mesure de blocage prononcée par le Tribunal de grande instance de Paris doit être notée, en particulier en raison de son caractère définitif et parce qu’elle vise les principaux FAI français. Rappelons que les fournisseurs d’accès à Internet sont considérés comme de simples « transporteurs », au titre des dispositions de la LCEN qui avait fidèlement transposé la directive européenne « Commerce électronique » de 2000 (7). Ce qui justifie que les FAI n’aient pas d’obligation généralisée de surveillance des contenus qui transitent par leurs services.

Trouble illicite de l’ordre public
La LCEN prévoit que « l’autorité judiciaire peut prescrire en référé ou sur requête, [à l’hébergeur] ou, à défaut, [au fournisseur d’accès à Internet], toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne » (8). Sur la base de ces dispositions, le blocage de l’accès à un site Internet est ainsi l’une des mesures qui peut être requise auprès de son hébergeur et à défaut des fournisseurs d’accès à Internet, notamment lorsque l’ordre public est menacé. Dans le présent cas, le Tribunal de grande instance de Paris a pris soin de lister les diverses publications constitutives d’infractions établissant clairement l’existence d’un trouble manifestement illicite de l’ordre public : injures à caractère racial, provocation à la haine et à la violence envers un groupe de personnes à raison de son origine ou de sa religion, provocation à la haine et à la violence envers un groupe de personnes à raison du sexe ou de l’orientation sexuelle, injure publique à raison de l’orientation sexuelle ou encore apologie de crimes contre l’humanité.

Bloquer l’accès, faute d’arrêter le site
La gravité de ces faits a ainsi pleinement justifié la nécessité d’intervenir à l’égard des FAI. Plusieurs des associations (Licra, Crif, SOS Racisme, MRAP, UEJF, AIPJ, LDH, SOS Homophobie, …) sont intervenues volontairement à l’action du procureur de la République de Paris au vu de la nature des contenus haineux diffusés sur le site
« Democratieparticipative.biz ». Elles avaient étendu les demandes initialement formulées dans l’assignation délivrée aux FAI. Certaines parties avaient notamment requis, en application de la loi du 29 juillet 1881 sur la liberté de la presse telle que récemment modifiée en 2017 (9), que les FAI procèdent non pas au « blocage » du site litigieux mais à son « arrêt ». En effet, l’article 50-1 de la loi du 29 juillet 1881 sur la liberté de la presse prévoit désormais que « lorsque les faits visés (…) résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite, l’arrêt de ce service peut être prononcé par le juge des référés, à la demande du ministère public
et de toute personne physique ou morale ayant intérêt à agir » (10).
Néanmoins, le Tribunal de grande instance de Paris a relevé, à juste titre, que seul l’hébergeur du site Internet aurait été à même d’arrêter ce service et que les FAI n’étaient pas en mesure de supprimer définitivement le site Internet, mais simplement d’en assurer le blocage depuis le territoire français. Le Tribunal de grande instance
de Paris a ainsi considéré que la mesure de blocage était « totalement adaptée et proportionnée » et a fait « injonction aux sociétés fournisseurs d’accès de procéder
au blocage d’accès du site litigieux » étant précisé que celles-ci « sont libres de choisir la mesure technique la plus adaptée et la plus efficace » (11). L’analyse des modalités de la mesure de blocage telle que prononcée par le Tribunal de grande instance de Paris permet d’en apprécier le caractère « proportionné et adapté » et mérite d’être soulevée. En effet, la mesure imposée aux FAI est illimitée dans le temps, ce qui est particulièrement notable. Les sociétés mises en cause avaient demandé que celle-ci soit limitée à une durée de douze mois. Néanmoins, la juridiction a suivi les demandes formulées par le procureur de la République de Paris, en considérant que cela « relève du principe de proportionnalité au vu de la gravité des propos relevés ». Cet aspect volontairement contraignant de la décision est renforcé par le fait que le blocage doit viser non seulement le site « Democratieparticipative.biz », mais également « tout site comportant le nom democratieparticipative. biz ».
Néanmoins, à la demande de la société Free, le Tribunal de grande instance de Paris
a mis le coût des mesures de blocage à la charge du procureur de la République de Paris. En effet, le Tribunal de grande instance de Paris a jugé que la LCEN ne consacre pas de mécanisme d’indemnisation et que, au nom du principe d’égalité devant les charges publiques, il n’est pas autorisé de faire supporter aux FAI le coût de la mesure de blocage, puisqu’ils ne sont pas responsables du contenu du site litigieux. Ce point semble justifié, dans la mesure où, contrairement à des arrêts rendus en matière de propriété intellectuelle (12) qui visaient la défense d’intérêts privés – tels que la protection des droits des auteurs dans l’affaire « Allostreaming » (13) de 2013 –, la décision du Tribunal de grande instance de Paris repose sur la protection de l’intérêt général. Par conséquent, les FAI pourront demander le remboursement des coûts afférents aux mesures de blocage sur présentation des factures correspondantes au procureur de la République de Paris.
Enfin, l’autorité judiciaire n’a pas prononcé la mesure d’astreinte requise par le procureur de la République de Paris en considérant notamment que les FAI ne tirent
« aucun profit de l’exploitation du site litigieux », ce qui renforce la volonté apparente
du tribunal d’inscrire cette décision dans une perspective de « coopération » avec ces acteurs et non de pure sanction.

Depuis l’affaire « Allostreaming » de 2013
La décision du Tribunal de grande instance de Paris illustre ainsi pleinement les mécanismes d’action disponibles à l’égard des FAI, qui se révèlent être des palliatifs efficaces aux difficultés récurrentes d’identification des auteurs et autres intermédiaires techniques. Cela pourrait être, depuis l’affaire « Allostreaming » jugé en 2013, une nouvelle source d’inspiration pour, notamment, les acteurs de l’industrie culturelle luttant contre les contenus contrefaisants. @

La révolution numérique n’a pas fini de nous obliger à réinventer le monde, mais il faut faire vite

La nouvelle année est généralement propice pour la prise de bonnes résolutions. En adoptant une démarche tant optimiste qu’ambitieuse, et en prenant conscience des effets pervers de la révolution numérique, on ne peut que conclure qu’il devient urgent de réinventer le monde au profit de tous.

Fabrice Lorvo*, avocat associé, FTPA.

Réinventer le monde est une obligation car la situation devient insupportable. La révolution numérique a profondément modifié notre ancien monde en créant un nouveau type de valeur (la data) et en centralisant la relation client sur une plateforme. Cette relation directe avec le consommateur rend l’intermédiaire superflu. Les économies qui sont faites immédiatement enchantent le consommateur mais devraient aussi affoler le salarié pouvant y voir la disparition progressive de son utilité sociale.

Le digital divertit mais ne nourrit pas
Le paradoxe, c’est que le consommateur et le salarié ne sont généralement qu’un !
La révolution numérique a créé chez chacun une sorte de schizophrénie où l’ivresse du consommateur a anesthésié la vigilance du travailleur. Cependant, le principe de réalité ne peut pas indéfiniment être ignoré et il y a des réveils brutaux. Cette révolution numérique qui nous fait rêver, par la facilité qu’elle nous apporte, est source de richesse pour certains mais la majorité des autres n’en recueille finalement qu’appauvrissement et exclusion. De surcroît, cette révolution numérique porte fort mal son nom. Dans notre inconscient populaire, une révolution consiste à remplacer le dirigeant d’un palais par un autre. Tel n’a pas été le cas, car la révolution numérique a créé une nouvelle société parallèle ; elle n’a pas modifié la société ; elle s’est contentée de créer un clone virtuel. Ce clone s’est greffé sur notre société traditionnelle pour en ponctionner uniquement
le flux financier, c’est-à-dire l’argent. Notre vieux monde qui se vide de sa substance continue à supporter les charges mais les profits d’hier sont captés par le nouveau monde numérique qui ne reconnaît pas notre système de redistribution traditionnelle. En détournant les rivières, on finit par assécher la mer. Regardons la mer d’Aral dont il ne reste que trois lacs du fait du détournement des deux fleuves qui l’alimentaient, pour produire du coton en masse. Par analogie, le détournement du flux financier traditionnel de l’ancien monde en faveur du circuit numérique produit les mêmes conséquences,
les provinces commencent doucement, silencieusement à s’assécher, faute d’emplois, faute de services. Le nouveau monde numérique prospère outrageusement sous les feux de la rampe face à l’ancien monde qui meurt doucement, silencieusement dans l’arrière-boutique. La richesse se fait de plus en plus rare dans l’ancien monde et le numérique, s’il divertit, ne nourrit pas. On peut certes considérer qu’il s’agit d’une période de transition, et qu’une adaptation est nécessaire puisque le numérique ne devrait pas manquer d’apporter de « nouveaux » emplois – pendant qu’il en détruit
d’« anciens ». Si l’argumentaire est intellectuellement exact, il n’en demeure pas moins qu’une ou plusieurs générations sont en train d’être sacrifiées et qu’elles ne l’entendent pas ainsi.
Parallèlement, les GAFAM (1) devraient avoir la sagesse d’anticiper elles-mêmes le fait qu’elles vont prochainement se retrouver sur une montagne d’or entourée d’un champ de ruines. Les profits immédiats sont parfois porteurs des faillites de demain. Depuis Ésope ou la Fontaine, on sait pourtant que « combien en a-t-on vus  qui du soir au matin sont pauvres devenus pour vouloir trop tôt être riches ? » car  « l’avarice perd tout en voulant tout gagner » (2). Les GAFAM devraient prendre conscience que le développement durable s’applique aussi vis-à-vis de leurs consommateurs car ils deviennent, sous le nom de « travailleur », une espèce en voie de disparition qu’il convient urgemment de protéger. Si les GAFAM n’ont pas la sagesse d’anticiper elles-mêmes cette (r)évolution, il est possible que certains le fassent pour elles mais de manière plus brutale. Le mouvement des Gilets jaunes en est une première illustration. Notons que ce mouvement est la conséquence directe de la révolution numérique,
et ce pour plusieurs raisons. Il est le résultat du besoin de satisfaction immédiate, du narcissisme numérique, de l’illusion que peuvent donner  les réseaux sociaux mais aussi et surtout de l’agonie progressive de l’ancien monde.

Redistribution sociale des richesses
La première revendication des Gilets jaunes a été d’exiger de l’Etat qu’il cesse de prélever des impôts dès lors que beaucoup de citoyens n’avaient plus les moyens
de les payer et qu’ils ne bénéficiaient plus d’une redistribution sociale. Il n’est pas surprenant que ce cri est lancé et adressé à l’Etat et à ses représentants. Dans l’imaginaire populaire, celui qui tient les cordons de la bourse, c’est le Président.
En 1963, les mineurs en grève défilaient en réclamant « Charlot, des sous » (3). Aujourd’hui, celui qui tient l’argent, ce n’est plus l’Etat, ce sont notamment les GAFAM. Nul n’est besoin d’être un grand économiste pour savoir que lorsque les recettes diminuent et qu’il n’est plus possible de faire du déficit, il ne reste plus à l’Etat qu’à réduire les prestations.

Un « message jaune » aux GAFAM
Pourquoi l’Etat n’a-t-il plus d’argent ? Parce qu’il continue à supporter les charges communes (celles des services publics), alors que ses ressources diminuent drastiquement. En effet, au-delà des politiques volontaristes de baisse d’impôts
(y compris pour les hauts revenus ou les grandes fortunes), des outils d’optimisation fiscale (parfois à la limite de l’évasion), ou encore de la baisse du pouvoir d’achat de la population (et notamment de la TVA pour le budget de l’Etat), les recettes disparaissent progressivement du vieux monde en faveur du nouveau et notamment des GAFAM, lesquels, du fait tant de la dématérialisation que de la mondialisation, profitent des consommateurs sur le marché français sans y payer tous leurs impôts. Les GAFAM n’écoutant plus les Etats mais uniquement les consommateurs, ne conviendrait-il
pas déjà que chaque internaute adresse un « message jaune » aux GAFAM en leur demandant de jouer le jeu et de payer – sur tous leurs revenus – leurs impôts à taux plein (et pas une obole) dans le pays dans lequel ils exercent leur activité ?
Cependant, réinventer le monde n’est pas sans obstacle. Une des pistes serait de réinventer les règles de partage au sein de l’ancien comme du nouveau monde.
• S’agissant de l’entreprise, le modèle social du vieux monde n’apportant plus la prospérité d’antan, les pratiques passées de répartition de la valeur (privilégiant la rémunération du capital au détriment de celle du travail) ou les pratiques nouvelles imposées par la crise économique (invitant les salariés à faire des sacrifices importants sans jamais participer aux bénéfices au-delà du symbolique) deviennent socialement insupportables.
Il faut agir en redéfinissant – lors d’une réflexion nationale (pour  « retisser l’unité nationale ») mêlant les corps intermédiaires et la société civile  – la manière dont
le partage de la valeur doit être opéré entre les entreprises et ses  « partenaires économiques » (qui vont des salariés et des fournisseurs jusqu’aux clients). Il faut réinventer un modèle basé sur la flexibilité réciproque, où seront équitablement partagés les sacrifices comme les récompenses. On ne pourra pas non plus ignorer le souhait des Français d’une meilleure justice fiscale, 77 % d’entre eux étant favorables au rétablissement de l’impôt de la solidarité sur la fortune (ISF) (4).
• S’agissant des GAFAM, la taxe sur leur chiffre d’affaires publicitaires que Bruno Le Maire veut mettre en place dès cette année – « dès le 1er janvier 2019 » (5), a assuré le ministre de l’Économie et des Finances le 18 décembre 2018 – est un bon début mais il faut approfondir la réflexion. Il est d‘abord normal, et moral, qu’une partie de l’argent collecté par les GAFAM sur le marché français soit réinjectée dans le budget
de l’Etat sous forme d’impôts. Cela permettra d’une part, de cesser de solliciter uniquement la contribution financière des victimes du numérique, et d’autre part,
de voir contribuer normalement les GAFAM au fonctionnement des services publics dont ils sont les bénéficiaires indirects. A l’image de Google France, il est probable
que les GAFAM ne se placeront pas sur le terrain perdu d’avance de l’acceptation
à l’assujettissement d’une taxe mais sur celui beaucoup plus délicat de l’assiette de l’impôt. Il conviendra d’abord d’étendre cette taxe limitée aux revenus publicitaires
à tous les chiffres d’affaires des GAFAM, et notamment la revente de données par
les commerçants en ligne, les plateformes et les éditeurs de services.
Reste ensuite la difficile question du « territoire ». On ne peut ignorer que la dématérialisation inhérente au numérique a fait voler en éclats les concepts de frontière et donc de territorialité. Or, le territoire est jusqu’à ce jour la raison de la fiscalité. L’impôt est historiquement la contrepartie de la défense du royaume par le souverain, puis de l’amélioration du territoire par la République. D’autre part, l’impôt est aussi l’expression de l’autorité de l’Etat sur tous les habitants d’un territoire. Comment concilier ce système avec la mondialisation qu’induit le numérique ? S’agissant des publicités visant la France facturée par Google en Irlande, l’assiette doit-elle inclure seulement les utilisateurs basés en France ou aussi ceux basés hors de France ? Comme le déclarait le directeur général de Google France devant l’Association des journalistes économiques et financiers (Ajef), « l’enjeu, ce n’est pas de savoir combien Google va payer, mais où Google va payer » (6). Une modification durable de l’assiette fiscale en tenant compte des particularités du numérique ne pourra se faire que dans
le cadre de négociation à l’Organisation de coopération et de développement économiques (OCDE) (7), ce qui nécessitera probablement encore quelques années
de réflexion et de discussion (8).

Partage de la valeur et répartition des richesses
Le mouvement des Gilets jaunes et la révolution numérique sont deux phénomènes historiques qui supposent de nouvelles réponses : une meilleure répartition des richesses dans le premier cas et un meilleur partage de la valeur pour le second.
Ces deux aspirations économiques ont des points de convergence que l’on ne peut plus ignorer. Et il y a maintenant urgence à les prendre en compte. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.

L’éthique, mode alternatif de régulation de l’IA et vecteur de confiance dans l’innovation

Les intelligences artificielles (IA) fascinent et semblent faciliter nos vies. Pourtant, elles nourrissent aussi des craintes et de véritables questionnements quant à leur impact sur la société, voire l’humanité. L’éthique peut constituer l’un des piliers de la confiance nécessaire au développement de l’IA.

Par Mahasti Razavi, associé gérant, et Laura Ziegler, avocat senior, August Debouzy

Il existe une distinction entre des IA dites
« faibles » et des IA dites « fortes ». L’IA faible permet de reproduire, le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique prévu à l’avance, dans la majorité des cas de façon bien plus efficace et rapide que l’homme, mais sans aucune forme d’improvisation. Si elle peut simuler le raisonnement, inclure une dimension apprenante et résoudre des problèmes, ce type d’intelligence artificielle ne permet en aucun cas de reproduire les fonctions cognitives de l’intelligence humaine.

IA « faible » : source de préoccupations
Chatbots, outils de reconnaissance vocale (Assistant/Google, Cortana/Microsoft, Siri/Apple, Alexa/Amazon) ou de reconnaissance d’images, ou encore robotique : cette forme d’IA « faible » est celle qui nous accompagne dans notre vie de tous les jours.
A cette IA « faible » est opposée une « IA forte », qui serait non seulement capable
de reproduire des aptitudes à la réflexion et à l’interaction intelligente (analyse, raisonnement, actions rationnelles), mais pourrait en outre comprendre son propre fonctionnement et avoir ainsi une réelle « conscience » d’elle-même. A cette étape, l’intelligence de la machine dépasserait donc celle de l’homme dans tous les domaines, y compris dans la créativité et dans l’agilité sociale. Si l’IA forte fait l’objet d’une préoccupation légitime en termes d’éthique, il n’en demeure pas moins que l’IA
« faible » doit également nous interpeller à cet égard.
Dans ce cadre, l’éthique apparaît comme un enjeu majeur pour penser et développer une IA responsable. L’une des premières sources d’inquiétude et de questionnements se concentre autour de l’effet pervers des algorithmes et de l’IA pouvant répercuter
et surtout amplifier un certain nombre de discriminations. En effet, si l’IA permet un traitement plus efficace de la donnée et a priori plus objectif de la donnée, l’algorithme est toujours le reflet d’un système de valeurs et de choix de société, à travers son paramétrage, ou ses données d’apprentissage. Aussi, les critères sur lesquels reposent les systèmes prédictifs peuvent être à l’origine de la reproduction et/ou de l’accentuation d’inégalités, de phénomènes d’exclusions et de discrimination, généralement causés par des biais cognitifs (1). Ces biais peuvent affecter directement ou indirectement les algorithmes (dès leur conception ou parce qu’ils n’auront pas été assez entraînés) mais encore les données intégrées dans le système ou générées par celui-ci (manque de diversité des bases de données d’apprentissage, par exemple).
Un algorithme permettant le fonctionnement d’un outil de reconnaissance faciale, s’entraînant sur une base de données qui ne serait pas assez diverse, peut ainsi présenter des défaillances dans la reconnaissance de visages. Autre illustration : les biais de genre révélés par la plateforme publicitaire de Google, AdSense, par laquelle les femmes se voyaient proposer des offres d’emploi bien moins rémunérées que celles adressées aux hommes, à un niveau similaire de qualification et d’expérience. Les algorithmes de prédiction, qui présentent aussi des risques d’exclusions, peuvent permettre aux entreprises d’anticiper les comportements ou les tendances de comportement de leurs clients, et d’automatiser en grande partie certains processus
ou d’aider à la prise de décision (2). Cette automatisation et cette dynamique de personnalisation des offres et des services peuvent naturellement avoir pour effet d’exclure l’accès de certaines personnes à ces services. C’est d’ailleurs l’une des raisons pour laquelle ce sujet a été très strictement encadré par la législation applicable en matière de données à caractère personnel et renforcée avec l’entrée en application du RGPD (3).
L’effet algorithmique qui consiste à classer et à filtrer des données, analysées en grande masse, est également un sujet préoccupant : ces algorithmes apprenants analysant nos comportements auront tendance à nous proposer constamment des objets (en fonction des achats effectués et des prédictions de nos futurs besoins),
des personnes (nos amis visibles sur les réseaux sociaux), des cultures (profilage
« Netflix ») conformes à nos goûts.

Risque d’enfermement algorithmique
Cela n’aura-t-il pas pour effet de nuire à un certain pluralisme et plus généralement
à la diversité culturelle ? A l’échelle de la société, ce phénomène pourrait constituer
– notamment en matière politique – un danger pour la qualité du débat public, la diversité de l’information et plus généralement le fonctionnement de notre démocratie. Alors que l’IA investit même les rédactions journalistiques et permet de traiter un grand nombre d’informations, de rédiger automatiquement certains articles ou encore de faire de la veille d’actualité, la mise en place – dans ce cadre précis – d’une IA responsable et éthique permettant d’éviter cet enfermement algorithmique, de lutter contre les fakes news, de respecter les engagements de diversité, de pluralisme et de déontologie de l’information paraît là encore indispensable.

Equilibre entre traitement et accès
En outre, l’IA impliquant l’utilisation massive des données à des fins d’apprentissage, elle pose là encore de nombreuses interrogations sur l’équilibre entre le traitement et l’accès aux données par les acteurs de l’IA et la protection des données à caractère personnel et des droits des personnes concernées. Sans algorithme, les données sont muettes, et sans donnée, l’algorithme est aveugle. A ce sujet, les principes de
« minimisation des données », l’encadrement du profilage, de la prise de décision exclusivement automatisée et les obligations de transparence figurant dans le RGPD marquent déjà les premières bases d’une technologie souhaitée plus responsable et respectueuse des droits et libertés des individus, même si ce n’est pas sans générer
de nombreuses difficultés en pratique. Plus généralement, la recherche de ce point d’équilibre entre la nécessaire protection des libertés individuelles et le développement libéré d’une technologie utile pour l’homme nourrit l’ensemble des réflexions autour de l’IA. S’il n’existe pas aujourd’hui de cadre juridique global et déterminé permettant de prendre en compte toute la complexité de ces nouvelles technologies intelligentes, les principales problématiques juridiques en matière notamment de propriété intellectuelle, de responsabilité, de protection des données à caractère personnel peuvent être aujourd’hui tout à fait encadrées par les textes existants. Parce qu’il s’agit par nature d’une technologie en mouvement, il nous semble « urgent de ne rien faire ! » et souhaitable que l’IA s’appuie sur la régulation existante et évolue de manière progressive avec celle-ci. Les règles et les limites qui lui sont applicables peuvent être par ailleurs conçues, dans un premier temps, de manière non contraignante, telle une soft law de plus, afin d’atteindre une certaine maturité. C’est ici tout le sens de l’éthique pensée comme une méthode alternative aux régulations, permettant de déclencher les consciences individuelles et collectives, devenue outil d’accompagnement du droit. L’éthique est constituée par un ensemble de normes édictées par l’industrie auxquelles celle-ci choisit de donner une force contraignante. Le contenu de ces normes peut reprendre en partie le droit existant, mais également aller bien au-delà. C’est en ce sens que s’est positionnée la Cnil (4) dans son rapport, publié le 15 décembre 2017, sur les enjeux éthiques des algorithmes et de l’IA (5). Elle a décliné six recommandations opérationnelles dans ce domaine – plaçant l’éthique au cœur de celles-ci en insistant notamment sur la nécessité de : former à l’éthique tous les acteurs-maillons de la chaîne algorithmique, rendre les algorithmes compréhensibles, constituer une plateforme nationale d’audit des algorithmes, encourager la recherche sur l’IA éthique ; et renforcer la fonction éthique au sein des entreprises (6). L’éthique apparaît désormais comme un enjeu crucial et un outil indispensable pour sensibiliser les utilisateurs mais également ceux qui contribuent à la conception et la commercialisation de ces systèmes d’IA aux enjeux attachés à son usage. Cette prise de conscience est très présente notamment chez les professionnels du secteur privé qui ont intégré l’éthique au cœur de leurs transformations digitales (lire encadré ci-dessous).
A ce jour, le développement d’une IA éthique semble être à l’évidence porté par une régulation alternative, choisie et sectorielle, à la recherche d’une gouvernance adaptée. Elle nécessitera toutefois inévitablement une mobilisation internationale d’ampleur, ou à tout le moins européenne, pour permettre l’identification des grand enjeux de société et éviter l’émergence d’éventuelles dérives : un « shopping éthique » (7) ou encore un nouveau phénomène d’« Ethicwashing » (8). L’IA éthique pourrait au contraire constituer la clé de l’attractivité des entreprises, puis des Etats conscients de son importance pour leur leadership en matière d’innovation. @

ZOOM

Les initiatives pour une IA éthique se multiplient
De très nombreux acteurs provenant de l’industrie de la tech – mais pas uniquement – se sont saisis du sujet et ont mis en place un grand nombre d’outils, au sein même de leurs organisations, pour développer une IA éthique et de confiance (9). Microsoft ou IBM, ont adopté, par exemple, des chartes et des codes éthiques sur l’utilisation de l’IA. Google annonçait le 7 juin 2018 – en réaction à une mobilisation d’une partie de ses salariés (10)– le lancement d’une charte éthique, articulée autour de sept principes très concrets applicables à l’IA (11). Ces sociétés ont également très récemment uni leurs forces en créant le 28 septembre 2018 un partenariat dans ce domaine : « Partnership on Artificial Intelligence to Benefit People and Society » (12), afin de définir de bonnes pratiques dans ce domaine. Du côté de la justice cette fois, le comité éthique et scientifique de la justice prédictive a adopté le 19 novembre 2018 une charte éthique qui est à ce jour uniquement contraignante pour la « Legaltech Predictice » qui s’y est volontairement soumise, mais qui a vocation à terme à servir à l’ensemble des acteurs utilisant l’IA dans le monde du droit. Plus récemment encore, le 3 décembre 2018, le Conseil de l’Europe adoptait la première charte européenne relative à l’usage de l’IA dans le monde judiciaire (13). Enfin, le monde scientifique, de la recherche et de l’industrie a appelé à un développement responsable de l’IA (14) en créant vingt-trois principes fonda-mentaux d’orientation de la recherche et des applications de l’IA (15). @

Réforme audiovisuelle : plutôt qu’un toilettage des textes actuels, une remise à plat s’impose

Comment faire peau neuve de la réglementation audiovisuelle française, alors que les textes législatifs et réglementaires se sont accumulés depuis plus de
30 ans au point d’être devenus illisibles et obsolètes ? S’inspirer du « service universel » des télécoms pourrait aider à revenir à l’essentiel.

Par Winston Maxwell et Alya Bloum, avocats, Hogan Lovells

Le rapport « Bergé », publié le 4 octobre 2018 par l’Assemblée nationale (1), propose de réformer la réglementation audiovisuelle française. De nombreux sujets y sont évoqués tels que le financement de la création, la rémunération des auteurs, la lutte contre le piratage, la chronologie des médias, les restrictions de diffusion et de publicité des chaînes de télévision, l’audiovisuel public, les pouvoirs du CSA (et ceux
de l’Hadopi). Ce rapport Bergé (2) constate l’opacité et la complexité du système actuel, plaidant pour une simplification.

La régulation actuelle est dépassée
D’autres rapports envisageaient déjà de s’attaquer à ces divers chantiers (3). Dans
une récente « note stratégique » intitulée « Refonder la régulation audiovisuelle » (4),
le CSA observait ainsi que « sous sa forme actuelle, la régulation est inadaptée à un environnement numérisé et globalisé ». Et d’ajouter : « Elle est partielle, hétérogène
et rigide : ses outils ont été conçus à l’ère pré-numérique, pour un marché fermé, de dimension nationale, et se sont largement fondés sur l’assujettissement des radios et télévisions à des obligations en échange de l’attribution des fréquences hertziennes ». En 2014, la Cour des comptes constatait, quant à elle, que la production audiovisuelle bénéficiait « d’un système de soutien sans équivalent en Europe, pour des performances décevantes » sans « rapport avec les montants investis », ce qui témoignait d’« une efficacité économique incertaine » (5). Dans ses propositions de réforme, le rapport Bergé met en avant un triptyque de mesures visant à : assouplir les règles qui entravent la croissance des acteurs français pour leur permettre de jouer à armes égales avec leurs concurrents mondiaux ; étendre la réglementation actuelle pour réduire l’asymétrie règlementaire entre les différents acteurs ; simplifier un droit qui est devenu difficilement lisible. Le souci de simplification de la loi avait déjà été soulevé par le CSA. En effet, le régulateur de l’audiovisuel avait observé que « modifiée plus de quatre-vingts fois en trente ans, la loi du 30 septembre 1986, peu lisible et incertaine dans son application, est devenue source d’insécurité juridique et économique pour
les opérateurs ». Donc, « elle nécessite une révision d’ensemble » (6). En effet, les obligations applicables aux différents opérateurs (chaînes de télévision, salles de cinéma, producteurs de films, distributeurs, éditeurs de DVD/VOD, radio, etc.) sont éparpillées dans une multitude de textes de différente nature : la loi du 30 septembre 1986, ses nombreux décrets d’application et leurs modifications, le code du cinéma et de l’image animée, le code de la propriété intellectuelle, le code général des impôts (où des taux de TVA différents sont actuellement appliqués), les accords professionnels, les conventions avec le CSA, … Le système de l’audiovisuel français est si complexe que seuls les spécialistes de la matière le maîtrisent, rendant les conditions d’accès au marché difficile pour les acteurs ne faisant pas partie de l’écosystème existant. Pourtant l’accessibilité et l’intelligibilité de la loi sont des objectifs à valeur constitutionnelle, et nécessaires selon le Conseil d’Etat pour une régulation saine (7). Ainsi, au-delà d’une simple réforme visant à amender les textes actuels, pourrait-on envisager une remise
à plat de la réglementation audiovisuelle pour la rendre plus simple, lisible, et efficace ? Il existe certaines similitudes entre les télécommunications dans les années 1990 et l’audiovisuel de 2018 : acteurs historiques régulés, marchés nationaux protégés, bouleversements technologiques et menaces venant d’acteurs non-européens. Comme dans les télécommunications, l’audiovisuel a son propre « service universel », à savoir un noyau de services et d’infrastructures de création, de production et de distribution que l’on souhaite préserver malgré les bouleversements du marché (8).
Dans les télécoms, le service universel a été invoqué pour s’opposer à la remise à plat de la réglementation. Les opposants à la libéralisation du secteur soutenaient qu’une réforme entraînerait la perte du service universel. Le service universel était devenu le principal argument pour le maintien statu quo malgré les bouleversements technologiques et la convergence. La menace dans les télécoms venait d’opérateurs alternatifs qui, selon certains, feraient de l’écrémage opportuniste sans investir dans les infrastructures nécessaires au service universel.

Un « service universel » de l’audiovisuel ?
Au bout de dix ans de réformes, le service universel en télécommunications a été maintenu, avec un financement fondé sur la transparence, la concurrence, l’innovation et l’efficacité économique. Pas question de faire supporter aux nouveaux entrants des coûts inefficaces de l’opérateur historique ! Même si le secteur audiovisuel est plus complexe que celui des télécommunications, on pourrait tirer quelques leçons de l’expérience « service universel » en télécommunications. Première leçon : Définir précisément le périmètre des services et infrastructures à protéger. Quels sont exactement les éléments essentiels de l’écosystème audiovisuel que l’on souhaite préserver, et quelles parties de cet écosystème seraient abandonnées en l’absence
de régulation ?

Définir les éléments essentiels à préserver
En télécommunications, la législation européenne a exigé une définition précise des éléments du service universel. Il en serait de même pour l’audiovisuel :
• Qu’est-ce que l’on entend par préserver l’écosystème de la production audiovisuelle
et cinématographique française ?
• Faut-il veiller à un nombre minimum de films français produits par an ?
• Faut-il veiller à un nombre minimum de producteurs indépendants, de techniciens,
de salles de cinéma dans les villes françaises ?
• Faut-il veiller à un certain niveau de fréquentation des salles ?
• Faut-il veiller à un certain nombre de scénaristes ? On se rend compte de la difficulté. Et pourtant, sans définir des objectifs précis et mesurables de « l’exception culturelle » française, le régulateur sera dans l’incapacité d’évaluer la nécessité (9) et le coût des mesures de régulation. Sans une vision détaillée des éléments de l’écosystème que l’on cherche à préserver, on retombera facilement sur un dialogue alarmiste où chaque changement, aussi minime soit-il, est perçu comme une menace pour l’écosystème dans son ensemble. C’est le problème aujourd’hui : changer un bout de la réglementation peut être perçue comme une menace pour l’exception culturelle dans son ensemble.
Deuxième leçon : Outre le besoin de définir les objectifs mesurables, il faut définir quels éléments de l’écosystème n’existeraient plus en l’absence d’une régulation. Cela nécessite la construction d’un scénario de référence où la réglementation n’existe pas. On utilise ce scénario de référence pour identifier des « défaillances du marché » qui nécessitent une intervention de l’Etat. Par exemple, dans le scénario de référence sans régulation, il n’existerait aucun accord collectif ou réglementation sur la chronologie des médias – laquelle requiert aujourd’hui qu’un film ayant fait l’objet d’une sortie nationale dans les salles de cinéma bénéficie d’abord d’une exclusivité de quatre mois en salles avant que ledit film ne puisse sortir en DVD et/ou VOD, puis sur les chaînes payantes, ensuite sur les chaînes gratuites, les plateformes SVOD et les plateformes gratuites. Est-ce qu’une forme de chronologie existerait toujours dans ce scénario « sans régulation » ? La réponse est probablement oui, car la plupart des pays n’ont aucune réglementation sur la chronologie des médias et pourtant une forme de chronologie existe chez eux – la chronologie est en effet imposée par voie contractuelle, le producteur cherchant par le contrat à maximiser les recettes du film à travers différentes fenêtres d’exploitation. Le scénario de référence pourrait révéler, d’une part, les éléments qui existeraient sans régulation ou subvention, par exemple la chronologie des médias ou la production de films commerciaux à gros budget, et, d’autre part, les éléments qui n’existeraient plus sans l’intervention de l’Etat, par exemple la production de certains types de films, ou l’exploitation de salles de cinémas dans des villes moyennes. Seule la deuxième catégorie d’éléments – les défaillances du marché –
peut faire l’objet de subventions ou de mesures de régulation équivalentes.
Troisième leçon : la simplicité et la souplesse de la régulation. Le système de régulation actuelle est complexe et rigide, alors qu’il faudrait au contraire une régulation simple
et souple pour accompagner un marché en pleine mutation numérique. De nouveaux usages et marchés émergent, de nouveaux formats de production, de nouveaux modèles commerciaux, … Une régulation détaillée et prescriptive – comme celle qui existe en France – devient vite obsolète, créant un poids inutile pour les acteurs du marché et pour la collectivité. Une manière de construire une régulation souple serait de définir dans la loi les objectifs que le législateur souhaite atteindre, et de confier à
un régulateur sectoriel – le CSA par exemple – une « boîte à outils » pour créer des régulations adaptées aux problèmes constatés. Le régulateur sectoriel serait obligé de justifier ses choix, de mesurer les résultats obtenus, et d’ajuster le tir en fonction des résultats. Une régulation expérimentale serait encouragée, ainsi que l’utilisation de mesures d’auto-régulation et de co-régulation. Le législateur reverrait la situation régulièrement pour modifier la loi si nécessaire. Une telle approche existe en télécommunications mais serait difficile à transposer en audiovisuel en raison de la dispersion de la réglementation au sein des différents textes cités plus haut. Le CSA n’aurait prise que sur les aspects de la régulation dépendant de la loi du 30 septembre 1986. Néanmoins, la réforme française de l’audiovisuel de 2019 et la directive européenne « SMA » – tout juste promulguée le 28 novembre pour être transposée par les Etat membres (10) – seront l’occasion de prendre quelques pas modestes vers une simplification et une souplesse essentielles au développement du secteur.

Contreparties du spectre en question
Comme l’a constaté le CSA (11), une grande partie des contraintes réglementaires qui pèsent actuellement sur les diffuseurs est la contrepartie de l’utilisation gratuite du spectre radioélectrique. Avant la généralisation du haut débit, ce spectre garantissait une forme d’exclusivité, un marché protégé de la concurrence, ce qui justifiait l’imposition de contreparties. Aujourd’hui, ce n’est plus le cas. Il faut donc changer d’approche, et cela passera forcément par une définition plus précise des éléments
de l’écosystème qui nécessitent un soutien, et l’instauration de règles de financement reposant sur la transparence, la proportionnalité, l’innovation et la libre concurrence. @

La publicité doit-elle être soumise au consentement quand elle est géolocalisée ?

Avec quatre mises en demeure publiées entre juin et novembre sur la géolocalisation publicitaire, la Commission nationale de l’informatique et des libertés (Cnil) « feuilletonne » sa doctrine en la matière. Or le RGPD européen n’exige pas toujours le consentement préalable des utilisateurs.

Etienne Drouard, avocat associé, et Lucile Rolinet, juriste, cabinet K&L Gates

La Cnil a d’abord publié deux mises en demeure à l’encontre des sociétés Fidzup et Teemo pour défaut de recueil du consentement à la collecte et au traitement de données de géolocalisation à des fins publicitaires. Dès le 3 octobre cependant,
elle mettait fin à la mise en demeure de la société Teemo (1) en décrivant précisément les mesures nouvelles prises par cette dernière pour se conformer à ses injonctions publiques (2). Sans discussion.

Réguler par les médias ou par le droit ?
Puis le 23 octobre, Singlespot (3) subissait à son tour la même mise au pilori de la part de la Cnil (4), et le 9 novembre 2018 (5), la société Vectaury était elle aussi épinglée (6) pour non recueil du consentement à la géolocalisation publicitaire. Jusqu’à présent, la Cnil publiait rarement ses mises en demeure – de quatre à quinze par an au cours des six dernières années – mais la série de publications qui s’est ouverte depuis l’entrée en vigueur du règlement général sur la protection des données personnelles (RGPD) le 25 mai 2018 semble marquer une nouvelle méthode de régulation. Celle-ci repose davantage sur la vindicte médiatique que sur le débat contradictoire, pourtant essentiel à un procès équitable. Elle incarne le souhait de la Cnil de montrer l’exemple (et les dents), tout en laissant aux sociétés intimées la possibilité de se conformer dans le délai qui leur est imparti, sans encourir d’autre sanction que médiatique. Il faut dire qu’une simple mise en demeure suffit pour la Cnil obtienne tout ce qu’elle désire…,
tant le niveau des amendes que peut désormais prononcer la Cnil depuis la date d’entrée en application du RGPD est effrayant (jusqu’à 4 % du chiffre d’affaires mondial consolidé). Au risque d’ancrer une doctrine sans le moindre débat juridique et avec
des raisonnements discutables sur le fond. Discutons-en, donc.
• A chaque finalité son consentement ? La Cnil menace de sanctionner l’absence de consentement des personnes concernées au traitement de leurs données personnelles pour recevoir de la publicité ciblée sur leur téléphone mobile. Pour ce faire, elle se fonde sur un élément de doctrine non expliqué, qui pourrait se résumer à la formule très simple – et très fausse : « Une finalité, un consentement ». Selon cette doctrine, toute personne ayant consenti à la géolocalisation devrait par ailleurs avoir la possibilité de consentir – ou de ne pas consentir – séparément et pour chaque finalité distincte, à chacune des utilisations de sa géolocalisation : contractuelle, publicitaire, etc.
La définition du consentement stabilisée par la directive européenne « Protection des données personnelles » de 1995 (95/46) n’a pas été modifiée par les quatre années d’élaboration du RGPD. Le consentement se définit comme toute manifestation de volonté univoque, libre, explicite, informée et spécifique, par laquelle une personne concernée peut accepter par une déclaration ou un acte positif clair le traitement de ses données personnelles (7), notamment le premier d’entre eux : la collecte de données. Selon les récentes lignes directrices des régulateurs européens (8) (*) (**) (***) (****),
le consentement est absolument discrétionnaire. Lorsqu’il est requis, il doit être spécifique à chaque finalité. Il ne peut être soumis à aucune condition, avantage ou détriment. Il est rétractable à l’envi ; il est d’une durée de validité limitée et il doit être renouvelé. Il est indépendant de l’accès à un service, quel que soit le modèle économique en jeu. Ainsi, lorsque le consentement est requis, le traitement d’une donnée est interdit tant qu’un consentement valable n’a pas été exprimé sur la base d’une information complète fournie aux personnes, dénuée de toute manipulation ou omission susceptible de les influencer dans leur libre choix.

Des cookies à la géolocalisation publicitaire
Le consentement est donc un régime d’interdiction a priori, qui déplace l’action de réguler sur les personnes. Ce véritable « droit au caprice », qui place la volonté libre
de l’individu au-dessus de toute autre considération, ne peut constituer le fondement d’aucun service (le consentement se distingue de l’adhésion à un contrat) ni d’aucun modèle économique. En effet, quelqu’un a-t-il déjà donné pareil consentement à l’usage publicitaire de la géolocalisation, sans contrepartie, à un tiers qui ne lui promet rien ? Créé en France en 1978 pour interdire le traitement des données sensibles relatives aux opinions politiques, philosophiques, religieuses ou syndicales, ce consentement-là, absolu et sanctifié, n’a jamais été « lâché seul » dans la sphère économique sans coexister avec des alternatives tout autant protectrices de l’individu (et malgré lui) et économiquement compatibles.
• Géolocalisation, consentement et information. Le consentement à la collecte de données de géolocalisation est exigé par la directive européenne « ePrivacy » (9) de 2002 (2002/58), transposée en droit français dans le code des postes et des télécommunications électroniques (10). Il est d’une nature similaire à l’exigence du consentement à la collecte des données sensibles (11) ou du consentement au dépôt ou à la lecture de « cookies » ou de traceurs en ligne (12).

Des raccourcis trompeurs et dangereux ?
La Cnil a mis en demeure les entreprises concernées au motif du défaut d’information préalable relatif à l’usage des données de géolocalisation à des fins publicitaires. Cette information est requise, quelle que soit la base légale sur laquelle repose la ou les finalité(s) de collecte ou d’utilisation des données. Elle peut, juridiquement, être concomitante à la collecte de la donnée de géolocalisation, mais elle doit en tout état
de cause être préalable à l’usage publicitaire d’une donnée de géolocalisation (13).
Le RGPD n’exige pas toujours le consentement ; il exige une base légale. C’est la faculté de collecter la donnée – de géolocalisation, ou sensible ou de l’identifiant d’un terminal – qui est soumise au consentement et non pas l’usage ultérieur qui sera fait
de cette donnée. Cet usage ultérieur peut être justifié par une nécessité technique, servicielle ou contractuelle, ou une faculté publicitaire ou une obligation légale. Cet usage ultérieur doit donc faire l’objet d’une information des personnes – dans tous les cas. Toutefois, chacun de ces usages postérieurs n’est pas forcément soumis au consentement des personnes. Tout dépendra de la base légale qui fonde chacun de ces usages ultérieurs. En effet, la règle posée par le RGPD n’est pas « une finalité =
un consentement », mais « une finalité = une base légale ». Or, le consentement n’est qu’une des six bases légales retenues par le RGPD et il n’a pas de rang prioritaire sur les autres. Tout dépend de la finalité d’utilisation concernée. La Cnil ne justifie pas en quoi l’utilisation publicitaire des données de géolocalisation collectées avec le consentement des personnes (14), serait-elle-même soumise à un consentement spécifique. En effet, lorsque la finalité d’utilisation d’une donnée est une géolocalisation servicielle, c’est-à-dire strictement nécessaire à la fourniture d’un service ou souscrit par la personne, le consentement discrétionnaire des personnes s’effacera au profit
de la nécessité pour l’entreprise d’exécuter un contrat d’adhésion souscrit par les personnes et qui implique l’utilisation « servicielle » – contractuelle – de la donnée de géolocalisation (15). Tel est le cas pour l’utilisateur d’une application de cartographie routière de type Waze, Plans, Mappy ou Google Maps. Lorsque la collecte des données de géolocalisation est nécessaire à la sauvegarde de la vie humaine (16), le consentement sera écarté et l’utilisation d’une donnée de géolocalisation par les services d’urgence (Police Secours, SAMU, Pompiers) leur permet d’obtenir des opérateurs télécoms la géolocalisation de l’appel d’une personne en détresse. Enfin, lorsque la géolocalisation est nécessaire à l’exécution d’une mission de service public, telle la collecte des points et horaires d’entrée et de sortie d’une section d’autoroute à péage, l’absence du recueil du consentement, matériellement impossible, n’empêchera pas les sociétés d’exploitation d’autoroute de recueillir les données de géolocalisation de leurs usagers.
Concernant la géolocalisation destinée à déclencher l’affichage publicitaire sur mobile, la base légale ne pourra être que l’intérêt légitime prévu par le RGPD et explicitement décrit à son considérant 47. D’ailleurs, quel utilisateur averti serait-il assez « original » pour désirer librement et sans la moindre incitation faire l’objet de publicités géociblées ? Si l’usage publicitaire d’une donnée n’est possible qu’à l’égard des personnes qui y consentent librement, cela signifie en droit et en pratique que l’usage publicitaire est interdit a priori par le RGPD. Or, c’est tout le contraire qui a été arbitré dans le RGPD, malgré la réticence à cet égard des régulateurs nationaux tels que la Cnil. En effet,
le RGPD requiert la démonstration d’un équilibre entre les garanties offertes aux personnes en contrepartie de l’intérêt commercial pour l’entreprise exploitant les données (17). La personne ayant téléchargé une application et ayant expressément consenti à la collecte de ses données de géolocalisation, doit être informée que ses données peuvent être utilisées à des fins de publicité et elle doit pouvoir… s’y opposer, dès lors que cette faculté d’opposition lui est offerte aisément et à tout moment.

Le RGPD n’est pas un texte « à la carte »
Il serait dangereux que le RGPD devienne un texte « à la carte » pour les régulateurs.
Il ne l’est pas pour les justiciables. Ne rompons pas la belle promesse de sécurité juridique et d’harmonisation européenne que l’Union européenne brandit à la face du monde avec le RGPD. Si nous ne tenions pas cette promesse, nous en serions, nous Européens, les principales victimes. @

E-démocratie : la révolution numérique détruit-elle ou enrichit-elle la décision collective?

Cette question sera débattue lors du colloque « Quel avenir pour la décision collective en démocratie ? », le 23 novembre 2018 à l’Assemblée nationale (1).
Le digital permet d’envisager une e-démocratie , mais les citoyens doivent être aptes à déjouer les jeux d’influences et d’infox.

Fabrice Lorvo*, avocat associé, FTPA.

La révolution numérique nous invite à repenser la manière dont les « décisions collectives » (2) sont prises au niveau politique. A ce jour, la décision collective s’exerce sous forme de mandat. Les électeurs désignent des représentants à l’Assemblée nationale et aussi un Président qui nomme un gouvernement. Ce mandat est représentatif (c’est-à-dire général, libre et non révocable), mais pas impératif (3).

E-élaboration des décisions et des lois
Ce système trouvait notamment sa justification dans des contraintes d’espace et de temps. Techniquement, il était impossible – puis difficile ou coûteux – de consulter tous les citoyens en même temps. La révolution numérique nous affranchit dorénavant de ces contraintes. On doit dès lors se demander si ces nouvelles capacités techniques sont de nature à justifier une mutation profonde dans la prise de décision collective.
Le numérique est un outil qui permet de renforcer la décision collective. Du point de
vue technique, la miniaturisation et le développement des télécommunications mobiles permet d’envisager la mise en place d’une démocratie numérique (4) dont l’objectif est, par l’utilisation d’Internet, d’accroître et de faciliter une plus large participation des citoyens au processus de décision et d’action politique et, ainsi, d’améliorer la transparence du processus démocratique. Parallèlement, force est de constater qu’au niveau sociologique, l’acceptation par les citoyens d’une décision prise par une autorité au nom de la collectivité est de plus en plus relative. Toute décision ayant un impact sur plusieurs individus n’est aujourd’hui acceptable que si elle a été préalablement exposée et discutée (5). Cette nouvelle aspiration démocratique s’exerce au niveau de l’information sur la décision à prendre, du débat sur son opportunité et sur son périmètre. Il existe aussi de plus en plus de revendications des citoyens pour pouvoir aussi décider directement.
En France, plusieurs initiatives politiques ont été prise en 2017 pour organiser sur Internet une élection primaire ouverte à tous les citoyens (sous certaines conditions), afin de désigner un candidat à l’élection présidentielle (6). Il y a aussi aussi une aspiration grandissante à un processus de rédaction collaborative : des consultations sont notamment organisées par certains parlementaires (7) pour associer les citoyens à la rédaction de leurs propositions de loi. Le stade ultime de cette démocratie numérique étant de pouvoir consulter en temps réel les citoyens sur tous les sujets. Au-delà de l’enthousiasme que suscite le concept de renouvellement démocratique, on doit s’interroger sur les nombreuses contraintes qu’il implique. Parmi elles : la cybersécurité, d’une part, et la participation, d’autre part. L’évolution vers une démocratie numérique n’est concevable que si elle se réalise dans un environnement informatique entièrement sécurisé : ce que l’on voit à l’écran n’est pas forcément la réalité (8).
Il faut en outre s’assurer, pour les votes électroniques, que ceux qui s’expriment ont bien la qualité d’électeurs, et donc qu’ils sont humains. Concernant la participation cette fois, promouvoir la démocratie numérique suppose une confiance dans le bon sens commun et l’intelligence collective. Elle revient aussi à spéculer sur l’envie de la collectivité des citoyens d’y participer, sachant que l’abstention est en hausse constante depuis 1958. Si l’instauration d’une démocratie numérique ne coïncide pas, simultanément, avec une mobilisation citoyenne pour y participer, il est plus que probable que la démarche sera un échec. Au pire, la décision collective ne sera plus que l’expression de la volonté d’une minorité active ou de groupes d’intérêt. Ce renouvellement pose aussi une question socialement difficile à aborder, surtout dans l’environnement narcissique créé par le numérique : tout le monde peut-il ou doit-il avoir un avis sur tout ?

Intérêt général et intérêts particuliers
Les facilités techniques offertes par le numérique sont sans effet sur la complexité du processus d’élaboration d’une décision et notamment d’une loi. Une décision ne peut être prise qu’en considération de contraintes horizontales (une décision qui semble juste dans un domaine ne doit pas avoir pour effet de créer une injustice dans un autre) et de contraintes verticales (une décision doit prendre en considération à la fois notre passé pour des questions de cohérence et l’avenir, à savoir l’intérêt des générations futures). Les facilités précitées sont aussi sans effet sur la technicité de certains sujets qui ne peut être ignorée. Enfin, on doit se demander si tous les sujets peuvent faire l’objet d’une consultation ou d’une décision collective. En principe, les décisions doivent être prises en fonction d’objectifs dictés par l’intérêt général. Or ce dernier n’est pas mathématiquement la somme des intérêts particuliers. Prenons l’exemple du tabac,
qui est probablement l’un des plus grands fléaux de santé publique : pour réduire la consommation, le gouvernement a décidé un train de hausses successives des prix jusqu’en novembre 2020. Cette décision est objectivement pertinente d’un point de
vue social, mais il est peu probable qu’elle aurait fait consensus notamment dans la catégorie des fumeurs si les citoyens avaient été consultés. Certaines décisions doivent donc être prises contre l’intérêt immédiat de leurs bénéficiaires. De la même manière, le caractère d’intérêt général peut être reconnu par les citoyens tout en étant vigoureusement refusée par ceux qui ont à le subir (9).

Influence collective et manipulation
Le numérique est aussi un outil qui permet d’influencer la décision collective. Notre démocratie repose sur le postulat que l’électeur est capable (il sait ce qu’il fait). Cependant, cette capacité peut être fortement altérée par le numérique. Au niveau international, il existe dans l’histoire récente au moins deux cas aux Etats-Unis qui semblent le suggérer : en 2016, des autorités de sécurité intérieure américaines (10) (*) (**) ainsi que le FBI (11) ont dénoncé des interventions du gouvernement russe pour influencer les élections américaines (notamment par les révélations sur les e-mails d’Hillary Clinton publiés sur les sites DCLeaks.com and Wikileaks). Toujours en 2016,
il est prétendu que l’élection de Trump a pu être favorisée par le recours au Big Data. Le candidat Trump a fait appel à la société Cambridge Analytica dont l’activité consiste à fournir aux entreprises et aux mouvements politiques des stratégies et opérations de communication clés-en-main basées sur l’analyse des données à grande échelle. Cette société annonce « utiliser les données pour changer le comportement du public » . Comme l’a reconnu Facebook (12), Cambridge Analytica aurait siphonné les données de 87 millions des utilisateurs du réseau social pour identifier et solliciter dans la société civile américaine le très fort courant anti-élites qui pouvait favoriser l’émergence d’un candidat atypique.
Ces deux événements ont, de manières différentes, participé à influencer la décision collective dans le choix d’un Président en utilisant le numérique. La première a consisté à intervenir auprès de l’opinion publique pour discréditer un candidat par l’information ; la seconde a permis d’identifier et de solliciter des électeurs qui auraient pu être passifs, et ce uniquement en les ciblant à l’aide de leur data. S’agissant de la propagande, il a toujours existé un lien intime entre opinion publique et décision collective. En conséquence, les tentatives d’influence de l’opinion ne sont pas nouvelles. Cependant ces manipulations ont, avec le numérique, une efficacité nouvelle incommensurable du fait de l’immédiateté de la diffusion, de sa mondialité et de son caractère potentiellement viral. En d’autres termes, les outils de propagande devaient, par le passé (13), être fabriqués mais leurs sources permettaient de les identifier. Aujourd’hui, Internet et les réseaux sociaux constituent un espace existant, gratuit et souvent anonyme au niveau de la source. S’agissant des données collectées dans le monde numérique, leur utilisation va exposer notre société à des maux inédits. En effet, en principe, celui qui convoite les suffrages tente de faire adhérer le public à son projet. Aujourd’hui, avec l’analyse du Big Data, ce sont les algorithmes qui vont probablement prédire les convictions à affirmer et les personnes à solliciter.
Que ce soit par les infox (fake news) ou par le profilage avec des data, le numérique rend possible une sollicitation individuelle nouvelle qui permet d’agir sur le comportement des citoyens. Ces démarches semblent permettre l’activation des comportements individuels. Dans son dernier livre (14), l’historien israélien Yuval
Noah Harari parle de possibilité de « pirater les êtres humains ».
En conclusion, il est fort probable que le renouveau démocratique espéré par l’utilisation de l’outil digital aboutisse à un double effet. D’un côté, une amélioration visible de la décision collective par la création d’un lien plus étroit entre le citoyen et son représentant, avec deux types de flux (du représentant vers le citoyen en renforçant la transparence et l’information, et du citoyen vers le représentant pour l’expression d’une opinion). De l’autre, et « en même temps », une altération invisible de la décision collective du fait des interventions sur la volonté des citoyens (en utilisant l’émotion et l’intérêt individuel plutôt que la raison et l’intérêt collectif). L’un des principaux remparts pour lutter contre la manipulation des individus par « l’information », c’est de cultiver l’esprit critique de chaque citoyen et faire de l’éducation au média. Pour ne pas subir demain les effets négatifs de la révolution numérique, il faut plus que jamais investir aujourd’hui et massivement dans l’Ecole de la république. Nous commençons aussi à payer très cher la démarche de gratuité des médias, accélérée par le numérique. S’il n’est pas contestable que la presse soit « le chien de garde » de la démocratie, il faudrait rapidement réapprendre « à nourrir le chien ».

Une réflexion éthique s’impose
S’agissant des data, leur traitement de masse va jouer un rôle décisif très prochainement au niveau politique, et donc au niveau de la décision collective. Notre société a pris conscience de l’importance des données, notamment avec le RGPD (15). Il faut aller encore plus loin dans la réflexion sur qui doit contrôler les Big Data – le secteur privé ? L’Etat ? – et jusqu’où peut-on les utiliser ? On doit conserver à l’esprit que nous maîtrisons mal la portée de la nouvelle connaissance que nous apportera le Big Data. Dans l’exploration de ce nouveau monde, les envolées techniques permises par le numérique doivent plus que jamais être contrebalancées par une réflexion éthique. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.

Smart Cities : clarifier l’objectif pour trouver intelligemment le chemin et… l’adhésion du public

Les villes intelligentes sont en vogue partout dans le monde, mais les financements ne suivent pas toujours. « Smart City » désigne des projets
de nature bien différente et, parfois, sert à camoufler précisément l’absence
de moyens, d’ambition voire d’adhésion des populations.

Par Rémy Fekete, avocat associé, Jones Day

La « Smart City » a été placée au coeur de la vision européenne
« Horizon 2020 » lancé il y a quatre ans (1). Ce programme vise
à la mise en place de réalisations « durables », sur un mode
« collaboratif, véloce, économe et frugal » en énergie. Derrière des mots qui sonnent comme des sésames administratifs, l’on trouve pourtant des budgets conséquents, placés sous la gouvernance d’une agence européenne – « Innovation and Networks Executive Agency » (INEA) – qui a déjà déboursé, quand même, de l’ordre de 300 millions d’euros en quatre ans pour une dizaine de projets comportant chacun plusieurs villes européennes de pays différents (2).

Des projets en voie de développement
Le concept de Smart City fait florès depuis un peu moins de dix ans dans les pays en développement. Gage de meilleure gouvernance et de projets innovants, il apparaît parfois comme le sésame permettant de débloquer des fonds des bailleurs internationaux. Ainsi, de la Jordanie aux côtes africaines, a émergé un véritable marché hautement compétitif de projets baptisés, parfois un peu rapidement, de Smart Cities, qui tentent, souvent en opposition les uns aux autres, d’attirer les capitaux étrangers. La période des « zones franches » est passée de mode, vive les « villes intelligentes ». La composante technologique de ces villes est pourtant fort variable. En Arabie saoudite, par exemple, un équipementier a pu prendre la direction d’une ville entièrement nouvelle, intégralement pensée dès son édification comme une citée totalement connectée. La fibre court dans chaque rue et connecte 100 % des logements et entreprises. Le système de vidéosurveillance est intégral et interconnecté avec les systèmes de surveillance internes aux habitations. Les digits des immeubles et parkings reliés à des systèmes de « domotique » permettant d’actionner l’ensemble de ses installations à distance (3).
Autre exemple : Tunis Telecom City (TTC) était un projet « greenfield » (créé ad hoc) prometteur, annoncé il y a dix ans pour un investissement potentiel de 3 milliards de dollars, mais qui manquait de contenus. Développé au bord de la méditerranée dans ce qui n’était qu’un terrain vague, le TTC avait pour ambition de se positionner comme un « hub numérique » régional et d’accueillir les entreprises à valeur ajoutée du secteur. Les atouts n’étaient pas minces si l’on cumule : le cadre fiscal et douanier dérogatoire et particulièrement attractif ; la bonne réputation de la Tunisie en matière de cadre de vie, de santé, de niveau scolaire ; la disponibilité de cadres ingénieurs informaticiens locaux ; et l’inscription de la ville intelligente côtière dans le cadre stratégique global du plan d’aménagement numérique haut débit adopté par le gouvernement. Las, les soubresauts politiques affectant la Tunisie depuis le printemps arabe de 2011, et surtout le manque d’investissement porté sur les éditeurs de contenus à vision régionale, ont eu raison de ce projet prometteur. Le projet tunisien n’est pas le seul à avoir vu une ambition globale de nouvelle ville intelligente numérique se transformer peu à peu en une énième zone franche. Ce qui plaçait le projet dans une concurrence délétère au mieux-disant fiscal par rapport à d’autres pays en développement, précisant ceux dans lesquels les ressources budgétaires font défaut.
Plus au Sud, le projet Sèmè City (4) lancé en 2017 avec un budget pluriannuel de 207 milliards de francs CFA (315 millions d’euros environ) dans les prochaines années veut faire la démonstration d’un « Bénin révélé » – du nom du programme d’investissement et de développement – en dédiant un territoire nouveau à une ville entièrement nouvelle et connectée, dédiée à l’enseignement, à la recherche et à l’incubation de start-up.
Ce qui n’est pas évident lorsque l’Afrique demeure le continent le moins connecté du monde, mais les atouts ne manquent pas : en plus des arguments habituels des zones franches (déductions fiscales et douanières), Sèmè City pourra proposer à ses partenaires la connectivité exceptionnelle que peut fournir le câble sous-marin international ACE (l’Africa Coast to Europe, dont environ 20 % seulement des capacités sont utilisées), et la proximité immédiate du plus grand marché africain : le Nigéria.

Des applications orientées populations
Le projet Sèmè City est entièrement concentré depuis sa genèse sur les contenus à valeur ajoutée à développer localement, et visant des publics ou clientèles cibles en Afrique de l’Ouest. Développer un savoir-faire éditorial local, enseigner les techniques de l’audiovisuel, imaginer les futures médecines douces adaptées aux maladies tropicales, favoriser l’incubation de start-up locales, au service des publics de la sous-région, sont autant d’orientations à même de favoriser l’implantation effective d’investisseurs internationaux, le cadre fiscal attractif n’intervenant qu’en appui.
De Londres à Cotonou, de Amman à Dakar, les projets de Smart Cities germent
dans le monde mais ne fleurissent pas toujours. Au-delà des effets d’annonce et du déploiement d’infrastructures de télécommunications, l’essentiel est ailleurs. Il consiste à donner un contenu réel, de la chair et du goût, à des applications sincèrement orientées vers les besoins des populations.

Smart City, Smart Grid, Smart… Data
Les consommateurs français semblent pour certains encore réticents à livrer les indicateurs de leur vie personnelle au grand nuage du Big Data. Le pêcheur de Sèmè ne sera à défaut pas plus prêt à s’inscrire dans un développement numérique que l’agriculteur de Saint-Macaire (Gironde) n’est enclin à laisser s’installer un compteur électrique connecté Linky. La multiplication des oppositions farouches aux projets de changements technologiques de toute nature rend indispensable un changement de paradigme s’agissant de la prise en considération de la composante humaine. En France, une étude récente dénombre pas moins de 25 Smart Cities, la plupart installées dans des agglomérations anciennes de plus de 200.000 habitants (5). La plupart de ces villes intelligentes disposent d’un service d’opérations data (notamment pour permettre aux usagers de circuler de manière plus intelligente), un wifi linéaire disponible pour le public (lire aussi ci-contre sur le «Wifi4EU » européen), une plateforme participative ou encore des services d’eadministration. Le mobilier urbain, lui, est rendu communiquant et certaines agglomérations vont jusqu’à installer un éclairage public intelligent, et même une collecte intelligente des déchets.
La ville intelligente se définit comme celle d’une agglomération qui met à profit les technologies de l’information pour améliorer la qualité des services rendus et réduire ses coûts. Selon Information Age (6), c’est Bill Clinton aurait mis à l’honneur ce concept en 2005. Depuis, les projets les plus innovants ont fini par imaginer des cités idéales, dignes des romans de science-fiction de Barjavel, dans lesquels l’onirisme rivalise avec une angoisse sourde. La Smart City, qui repose sur la conviction que le numérique, permet de fournir des services parfaitement adaptés à la réalité des existences et ainsi améliorer la vie en communauté au sein d’environnements urbains. Elle nécessite bien évidemment la disponibilité de moyens de communication haut débit. Il n’est pas inutile de rappeler ce postulat, alors que le niveau de qualité de service des accès à Internet demeure notoirement insuffisant au sein de l’Union européenne. La poursuite du déploiement de la fibre, notamment dans le cadre de projets FTTH (7), et l’avènement futur de la couverture 5G devraient aboutir à fournir au citoyen européen, à tout le moins à celui qui vit en ville, la connectivité suffisante à l’utilisation de services administratifs dits « intelligents ». Surtout, le déploiement de réseaux de collectes de données via l’Internet des Objets est en cours. On estime à plus de 50 milliards le nombre d’objets connectés dans le monde d’ici deux ans (2020). Tout est transformé
en capteur de données : l’intégralité du mobilier urbain, les véhicules, la plupart des bâtiments, des objets de la vie quotidienne, les appareils électroménagers, l’outillage sportif et jusqu’aux habits. Comme dans la chanson populaire, « tout, tout, tout, vous saurez tout » (8) sur l’intimité des comportements de vos prochains. Ou presque car, gage de protection des données personnelles, celles-ci sont collectées par un opérateur de réseau IoT (9), elles sont traitées par un agrégateur et leurs enseignements soigneusement sélectionnés en fonction de chaque type de clientèle.
Certes, l’affaire « Cambridge Analytical » touchant Facebook, et son rôle dans le basculement des grands électeurs des Etats du Michigan, du Wisconsin et de la Pennsylvanie en faveur de Donald Trump, ont mis le projecteur sur la facilité d’exploitation de données personnelles pour orienter les convictions d’une partie de
la population. Les armes juridiques ont sans doute évolué depuis, du moins en Europe à la faveur du RGPD (10), il reste que les réticences de la population à l’irruption de collecteurs de données personnelles dans leur vie personnelle ont manifestement été minorée. Les nombreuses oppositions au déploiement du compteur Linky en est une illustration (11). Pourtant cet équipement est au cœur des nombreux projets de Smart Cities et de leur promesse de « smart grid », réseau de distribution d’électricité intelligent : le compteur indique la consommation en temps réel, avec la promesse d’une réduction significative de la consommation des ménages (12). Il promet même
à terme une orientation bidirectionnelle, ce qui devrait permettre à chacun, grâce à
des sources individuelles de production d’énergie (13), de devenir tour à tour consommateur ou fournisseur d’électricité pour son voisinage. @

ZOOM

Wifi4EU : du Wifi gratuit en ville pendant au moins trois ans
L’Union européenne a placé l’accès Internet au centre de sa stratégie de marché unique numérique. L’initiative Wifi4EU est destinée aux communes européennes qui peuvent candidater selon une procédure relativement simple. L’enjeu est l’attribution
de « coupons » de 15.000 euros par appel à candidatures. Cette somme a pour objet l’installation d’un point d’accès Wifi et sa mise en fonctionnement dans un « centre de vie publique ». Il restera à la commune de prendre en charge le coût de l’appel d’offres, la mise en place du réseau de collecte si nécessaire et le coût de la connectivité, tout en s’engageant à fournir un accès totalement gratuit aux utilisateurs pendant une durée d’au moins trois ans. @