Pour la reconnaissance faciale à distance ou locale, les enjeux éthiques ne sont pas les mêmes

Identifier un visage dans une foule soulève de sérieuses questions sur les libertés individuelles. Mais il existe de nombreux autres usages de la reconnaissance faciale, notamment la validation d’identité en local. Ces utilisations ont vocation à se développer mais posent d’autres questions éthiques.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

L’utilisation de la reconnaissance faciale pour l’identification à distance constitue une menace pour les libertés individuelles, car cela tend à banaliser une société de surveillance. Selon le New York Times, une start-up américaine Clearview AI a déjà fabriqué des gabarits d’identification de 3 milliards d’individus à partir d’images copiées sur le Web (1). N’importe quelle force de l’ordre – mais pas le grand public (2) – peut utiliser le logiciel de Clearview AI et identifier les visages dans une foule. Cependant, plusieurs villes américaines ont temporairement banni cette utilisation de la technologie par leurs autorités publiques.

Outils de surveillance généralisée
En Europe, la Commission européenne appelle à un grand débat européen sur l’utilisation de la reconnaissance faciale pour l’identification à distance. En France, le secrétaire d’Etat au numérique, Cédric O, souhaite lancer des expérimentations. Pour l’identification à distance, il faut avancer à tâtons pour trouver le bon équilibre entre les impératifs de sécurité publique et la préservation des valeurs démocratiques. Mais ce débat n’est pas différent au fond de celui qui, depuis 50 ans, entoure les technologies de surveillance des communications électroniques. La technologie utilisée pour la surveillance des communications n’a pas cessé d’évoluer : IMSI-catchers ou intercepteurs d’IMSI (3), boîtes noires, Deep Packet Inspection (DPI), captation à distance, … Ces outils permettraient une surveillance généralisée de la population. Leur utilisation en France est interdite, sauf par les forces de polices et des autorités de renseignement sous le contrôle de juges et de la CNCTR (4).
En application de la jurisprudence européenne, l’utilisation de technologies invasives de surveillance par l’Etat se justifie uniquement si l’utilisation est prévue par une loi. Et ce, pour faire face à une menace particulièrement grave, la lutte contre le terrorisme par exemple, et sous le contrôle d’un juge ou d’une commission indépendante. L’utilisation de la reconnaissance faciale pour identifier les individus à distance devrait suivre la même trajectoire : interdiction, sauf pour les autorités de police ou de renseignement sous le contrôle des juges. D’ailleurs, c’est déjà ce qui est prévu par la directive européenne européenne dite « Police-Justice » (5) de 2016, puisque la reconnaissance faciale est un traitement biométrique soumis à des règles strictes. Mais il existe un deuxième type d’utilisation, non-évoqué par la Commission européenne dans son livre blanc (6) sur l’intelligence artificielle (IA). Il s’agit de valider l’identité « en local » d’un individu en comparant sa photo « selfie » avec la photo de la pièce d’identité. Cette utilisation permet notamment d’ouvrir un compte bancaire à distance ou bien de passer plus vite dans un portique automatique à l’aéroport. Cette utilisation de la reconnaissance faciale se généralise, et elle paraît – de prime abord – moins attentatoire aux libertés individuelles : d’une part, parce que les personnes sont conscientes et consentantes de l’utilisation (ce qui n’est pas le cas pour l’identification à distance) ; d’autre part, parce qu’aucune image ni gabarit biométrique n’est stocké de manière centralisée. La vérification s’effectue en local, comme pour déverrouiller un smartphone avec l’empreinte digitale. Le système crée un gabarit biométrique à partir de la photo du passeport, analyse ensuite la photo de selfie, crée un deuxième gabarit biométrique du selfie, et compare les deux gabarits pour établir une probabilité de correspondance. Ensuite les gabarits sont détruits (lire encadré page suivante). La reconnaissance faciale locale soulève néanmoins des questions éthiques et juridiques importantes : l’existence d’un consentement libre, le problème des biais, l’explicabilité des algorithmes, et la difficile articulation avec le règlement général sur la protection des données (RGPD) pour la phase d’entraînement. La reconnaissance faciale « locale » pose la question du consentement libre. Si la personne subit des conséquences négatives en refusant la reconnaissance faciale, le consentement ne sera pas libre. Il en sera de même si le consentement est demandé par une personne jouissant d’une position d’autorité, par exemple si la direction d’un lycée demandait aux élèves de consentir à l’utilisation de la reconnaissance faciale pour rentrer dans l’établissement (7).

Les biais statistiques sont inévitables
Concerne les biais cette fois, le Parlement européen a appelé le 12 février 2020 à l’utilisation d’algorithme qu’il faut entraîner avec des données « non-biaisées » (8). Or, une telle condition est impossible à satisfaire en pratique. Certains groupes de la population seront toujours sous-représentés dans les images d’entraînement, ce qui signifie que les biais statistiques seront inévitables. Cela peut conduire à des niveaux de performance inégaux selon le genre, la couleur de peau ou la situation de handicap d’une personne. Par exemple, l’algorithme pourrait avoir plus de difficulté à identifier une femme noire qu’un homme blanc au moment de la vérification de l’identité à l’aéroport. Ces biais peuvent exister sous une forme bien pire chez les humains. Mais pour un algorithme, ce genre de biais est peu acceptable. Corriger ces biais dans l’algorithme est possible, mais cela soulève d’autres questions. Par exemple, si l’algorithme a un taux d’erreur élevé pour des personnes atteintes d’une certaine maladie de la peau, devons-nous baisser artificiellement le niveau de performance pour tous les autres groupes de la population pour que le taux d’erreur soit équivalent ? Ces questions deviennent rapidement politiques : à partir de quel moment un biais algorithmique devient-il suffisamment problématique pour le corriger, ce qui affectera inévitablement la performance de l’algorithme pour les autres personnes ?

Savoir s’il y a discrimination algorithmique
Un autre aspect éthique de la reconnaissance faciale concerne l’explicabilité des algorithmes. En France, le code des relations entre le public et l’administration garantit à chaque individu le droit d’obtenir une explication lorsqu’un algorithme géré par l’Etat prend une décision à son encontre (9). Logiquement, ce droit exige que l’exploitant de l’algorithme soit en mesure d’expliquer à une personne pourquoi un système n’a pas pu vérifier son image par rapport à sa pièce d’identité. Techniquement, des solutions d’explicabilité existent, même pour des réseaux de neurones. Mais fournir une explication exige le stockage d’informations, et notamment les gabarits générés par l’algorithme. Or, le RGPD et la directive « Police- Justice » interdisent généralement ce stockage, surtout lorsqu’il s’agit de données biométriques.
Résultat : dans certains cas, il n’y aura aucune explication quant au refus du système de vérifier l’identité. Le système ne réussira pas à identifier la personne, sans que la personne puisse vérifier si elle a fait l’objet d’une discrimination algorithmique. Cette absence de transparence pose une difficulté au niveau des droits fondamentaux, comme le démontre une récente décision du tribunal de la Haye (10).
Enfin, l’entraînement des algorithmes de reconnaissance faciale est difficile à réconcilier avec le RGPD. Pour réduire les discriminations, l’Agence européenne des droits fondamentaux (FRA) souligne la nécessité d’entraîner l’algorithme sur une grande quantité d’images représentatives de la population, et notamment les personnes vulnérables (11). Or cette condition est quasiment impossible à remplir en Europe puisque le RGPD et la directive « Police-Justice » interdisent la création de grandes bases d’images, surtout lorsque les images sont étiquetées selon la couleur de peau ou la situation de handicap. Les systèmes américains et chinois bénéficient, eux, d’entraînement sur des dizaines de millions d’images, ce qui crée un avantage concurrentiel considérable. De plus, les tests de non-discrimination des algorithmes s’effectuent tous aux Etats-Unis à l’agence NIST (12), même pour les systèmes européens.
L’entraînement des algorithmes pose un problème particulier puisque le gabarit d’un visage est considéré comme une donnée biométrique. Or le RGPD interdit le traitement de données biométriques, hormis des cas limités – par exemple, le consentement explicite de la personne. Du coup, un entraînement sur des millions d’images récupérées sur Internet devient impossible par une société européenne puisque l’entraînement nécessite la création, au moins temporaire, de gabarits, une donnée biométrique. Une solution pourrait consister en l’assouplissement des conditions d’application du RGPD lorsqu’il s’agit de créer des gabarits éphémères pour l’apprentissage des algorithmes dans des environnements contrôlés, voire de considérer que ces gabarits ne sont pas des données biométriques puisque la finalité de leur traitement n’est pas l’identification d’une personne mais seulement l’entraînement de l’algorithme. Lorsque l’algorithme est mis en exploitation, les dispositions du RGPD ou de la directive « Police-Justice » sur la biométrie retrouveraient toute leur force, puisque les gabarits seraient bien utilisés pour identifier des personnes. Le consentement explicite de la personne, ou en cas d’intérêt public et de nécessité absolue, serait alors nécessaire. @

* Winston Maxwell, ancien avocat, est depuis juin 2019 directeur d’études
Droit et Numérique à Telecom Paris. ** David Bounie est directeur du
département Economie et Sciences sociales à Telecom Paris.

ZOOM

Qu’est-ce qu’un gabarit ?
Un gabarit est l’équivalent d’un code barre qui contient les mensurations uniques d’un visage. La clé du succès en matière de reconnaissance faciale est de créer un algorithme capable de générer des gabarits de qualité à partir d’images d’individus. Un algorithme de qualité doit savoir générer le même gabarit pour l’image de Paul, quelles que soient les différences de lumière, d’angle de vue et de netteté de l’image de Paul. Pour entraîner l’algorithme, on va présenter à un réseau de neurones 100 photos d’une même personne — par exemple Angelina Jolie — récupérées sur le Web, avec des angles de vue et des lumières différents, et demander au réseau de neurones de trouver une formule mathématique qui permettra pour chaque photo d’Angelina Jolie de générer le même gabarit, quels que soient l’angle de vue ou la lumière. Les gabarits générés pendant l’apprentissage sont éphémères. Ils servent uniquement à aider l’algorithme à trouver la bonne formule mathématique. Une fois cette formule mathématique unique établie, elle peut s’appliquer à n’importe quelle nouvelle photo de passeport et générer, pour cette photo, un gabarit de qualité. L’algorithme va ensuite générer un deuxième gabarit à partir d’une deuxième photo (par exemple un selfie), et si l’algorithme est bien fait, les deux gabarits vont correspondre malgré les différences d’angle de vue et de lumière. La qualité de cet algorithme est au cœur des systèmes de reconnaissance faciale. @

Un cadre légal attendu pour le renseignement technique

Le projet de loi explicite les finalités et les techniques associées du renseignement dans un cadre attendu d’autorisation et de contrôle renforcés, avec l’installation d’une nouvelle autorité indépendant (CNCTR) et l’instauration de voies de recours devant le Conseil d’Etat.

Christophe Clarenc (photo) et Dominique de Combles de Nayves, avocats,
cabinet Dunaud Clarenc Combles & Associés

Le gouvernement a présenté en mars dernier un projet de loi relatif au renseignement (1) qui vise à renforcer le cadre légal
et opérationnel de l’activité des services spécialisés de renseignement (2) et, en particulier, des techniques de recueil
de renseignement d’origine électromagnétique (ROEM) (3).

 

Mission, finalités et techniques
Aucunement d’« opportunité » ou d’« exception », contrairement à ce que disent certains commentateurs, ce projet s’inscrit tout à l’inverse dans les recommandations des derniers rapports annuels de la Délégation parlementaire au renseignement (4), du rapport d’information de la commission des lois de l’Assemblée nationale de 2013 sur l’évaluation du cadre juridique applicable aux services de renseignement, et du rapport du Conseil d’Etat de 2014 sur « le numérique et les droits fondamentaux ». Il en va aussi des orientations du livre blanc sur la Défense et la sécurité nationale, qui reconnaît depuis 2008 à la collecte du ROEM un caractère de nécessité et de priorité. Le texte amendé et voté par le Sénat le 9 juin, puis adopté en commission mixte paritaire le 16 juin, préfigure en très grande partie celui qui sera adopté le 24 juin
à l’Assemblée nationale, avant d’être déféré, comme annoncé, au Conseil Constitutionnel.
Le projet de loi rappelle que le renseignement est une politique publique concourant, sous la compétence exclusive de l’Etat, à la stratégie de sécurité nationale, à la Défense et à la promotion des intérêts fondamentaux de la Nation. Le texte législatif rappelle aussi que les services spécialisés, agissant sous l’autorité du gouvernement dans le respect de la loi et des orientations du Conseil national du renseignement (organisme de coordination des services de renseignement français créé en 2008),
ont pour missions, en France et à l’étranger, la recherche, la collecte, l’exploitation
et la mise à disposition des renseignements nécessaires à la connaissance et à l’anticipation des enjeux géopolitiques et stratégiques, ainsi qu’à la prévention des menaces et des risques susceptibles d’affecter la vie de la Nation.

Le projet instaure un encadrement complété, unifié et renforcé des techniques de renseignement, visant conjointement à circonscrire et à sécuriser leur emploi légitime par les services, sous la responsabilité du Premier ministre, et à dûment protéger les libertés fondamentales garanties sur le territoire national – en particulier le respect de
la vie privée, dans toutes ses composantes (secret des correspondances, protection des données personnelles, inviolabilité du domicile), contre toute intrusion injustifiée
ou captation disproportionnée. A cet effet, le projet précise tout d’abord les finalités
du renseignement (5), les techniques de recueil susceptibles d’être utilisées à ces
fins et les conditions de mise en oeuvre de chacune de ces techniques. Il s’agit des techniques d’interception des correspondances, notamment par dispositifs mobiles
de proximité (« IMSI catcher » (6)), de réquisition des données de connexion et de localisation, de sonorisation, de captation d’images, de captation de données informatiques, de localisation en temps réel par dispositif de « balises », de recueil
de données de connexion en temps réel, et de surveillance/détection algorithmique
sur les réseaux (à seule fin de prévention du terrorisme) (7).
Le texte définit ensuite les procédures applicables tant aux autorisations de mise
en oeuvre qu’à leur exploitation, et renforce les garanties en installant une nouvelle autorité indépendante de contrôle – la Commission nationale de contrôle des techniques de renseignement (CNCTR) – aux prérogatives élargies (8) et en instaurant un contrôle juridictionnel devant une formation spécialisée du Conseil d’Etat.

Responsabilité du Premier ministre
Toute mise en oeuvre d’une mesure de recueil de renseignement par un service doit être autorisée par le Premier ministre (9). Ses autorisations sont délivrées sur demande écrite et motivée des ministres de tutelle des services (10) et après avis de la CNCTR (sauf cas d’urgence absolue) lorsqu’elles concernent le territoire national. Les mesures de surveillance internationale (communications émises ou reçues à l’étranger) font l’objet d’un régime d’autorisation distinct. Lorsqu’elle ne suit pas un avis défavorable rendu par la CNCTR, l’autorisation doit en indiquer les motifs. Le Premier ministre tient un registre des demandes et des autorisations. Il assure également la traçabilité de la mise en oeuvre des mesures autorisées, ainsi que la conformité de la centralisation,
de l’exploitation, de la conservation et de la destruction des renseignements collectés.

Contrôles : CNCTR et Conseil d’Etat
Le projet renforce les garanties en conférant à l’autorité indépendante de contrôle,
la nouvelle CNCTR, une composition et des prérogatives élargies. La CNCTR sera composée d’au moins neuf membres : deux députés et deux sénateurs, deux membres du Conseil d’Etat et deux magistrats hors hiérarchie de la Cour de cassation élus par leurs assemblées respectives, et une personnalité qualifiée en matière de communications électroniques nommée sur proposition du président de l’Autorité de régulation des communications électroniques et des postes (Arcep) (11). Le président de la CNCTR est nommé parmi les membres du Conseil d’Etat et les magistrats de la Cour de cassation élus.
L’autorité indépendante de contrôle est composée de deux formations : une plénière et une restreinte. Ses travaux sont couverts par le secret de la Défense nationale. Elle a pour mission de veiller à la conformité de la mise en oeuvre des techniques de recueil de renseignement sur le territoire national. Elle interviendra également dans le contrôle des mesures de surveillance internationale, dans des conditions précisées par décret. Elle exerce cette mission en amont, par avis sur les demandes d’autorisation et par contrôle du respect de la procédure de délivrance, et en aval, par contrôle de la mise
en oeuvre et de l’exploitation, avec plein accès (garanti notamment par la création d’un délit d’entrave) à l’ensemble des données et endroits nécessaires.
Les avis sont rendus par le président ou l’un des autres membres de la formation restreinte, en formation restreinte ou plénière pour toute question nouvelle ou sérieuse, et obligatoirement en formation plénière lorsque la demande vise un parlementaire, un magistrat, un avocat ou un journaliste. La CNCTR peut être saisie de réclamation par toute personne souhaitant vérifier qu’aucune technique suspectée n’est irrégulièrement mise en oeuvre à son égard. Elle procède aux vérifications nécessaires et notifie à l’auteur de la réclamation qu’il y a été procédé, sans confirmer ni infirmer la mise en oeuvre de la technique. Elle peut également être saisie par tout agent des services
qui aurait connaissance, dans l’exercice de ses fonctions, de faits susceptibles de constituer une violation manifeste du cadre légal (ce droit/devoir de signalement des agents faisant l’objet d’une protection expresse), avec devoir de saisir le procureur de la République si elle estime que l’illégalité est susceptible de constituer une infraction. En cas de manquement estimé dans la délivrance d’une autorisation de mise en oeuvre d’une technique, dans la mise en oeuvre d’une technique autorisée ou dans la collecte, la transcription, l’extraction, la conservation ou la destruction des renseignements collectés, la CNCTR adresse au Premier ministre, au ministre responsable et au service concerné une recommandation tendant à l’interruption de la mise en oeuvre de la technique en cause et/ou à la destruction des renseignements collectés. Elle peut
saisir le Conseil d’Etat si le Premier ministre ne donne pas suite à ses avis ou recommandations. Elle rend un rapport annuel circonstancié de son activité. Le projet renforce de plus fort les garanties, ensuite, en instaurant ainsi devant une formation spécialisée du Conseil d’Etat la possibilité d’un contentieux sur la mise en oeuvre des techniques de renseignement soumises à autorisation et des fichiers intéressant la sûreté de l’Etat. La procédure et le contradictoire sont adaptés aux exigences du secret de la Défense nationale.
Les recours sur la mise en en oeuvre des techniques sont ouverts à la CNCTR ainsi qu’à toute personne souhaitant vérifier qu’aucune technique suspectée n’est irrégulièrement mise en oeuvre à son égard et justifiant (hors requête en référé) réclamation préalable auprès de la CNCTR. Le Conseil d’Etat peut également être
saisi à titre préjudiciel par une juridiction administrative ou une autorité judiciaire
saisie d’une procédure ou d’un litige dont la solution dépend de l’examen de
la régularité d’une technique de recueil de renseignement.

L’Etat peut être condamné
Lorsque le Conseil d’Etat constate qu’une technique de recueil de renseignement est ou a été mise en oeuvre illégalement ou que des renseignements ont été conservés illégalement, elle peut annuler l’autorisation de mise en oeuvre et ordonner la destruction des renseignements collectés. Elle en informe alors le requérant ou la juridiction de renvoi et peut condamner l’Etat à indemniser le préjudice subi. Elle avise le procureur de la République si elle estime que l’illégalité constatée est susceptible de constituer une infraction. Le projet ne semble pas envisager un accès aux réclamations devant la CNCTR et aux recours devant le Conseil d’Etat au profit des opérateurs de communications électroniques et des fournisseurs de services en ligne concernés par les techniques mises en œuvres sur le territoire national, ce qu’il aurait pu prévoir dans le cadre de leur régime de responsabilité propre au titre de ce dispositif. @