Pour la reconnaissance faciale à distance ou locale, les enjeux éthiques ne sont pas les mêmes

Identifier un visage dans une foule soulève de sérieuses questions sur les libertés individuelles. Mais il existe de nombreux autres usages de la reconnaissance faciale, notamment la validation d’identité en local. Ces utilisations ont vocation à se développer mais posent d’autres questions éthiques.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

L’utilisation de la reconnaissance faciale pour l’identification à distance constitue une menace pour les libertés individuelles, car cela tend à banaliser une société de surveillance. Selon le New York Times, une start-up américaine Clearview AI a déjà fabriqué des gabarits d’identification de 3 milliards d’individus à partir d’images copiées sur le Web (1). N’importe quelle force de l’ordre – mais pas le grand public (2) – peut utiliser le logiciel de Clearview AI et identifier les visages dans une foule. Cependant, plusieurs villes américaines ont temporairement banni cette utilisation de la technologie par leurs autorités publiques.

Outils de surveillance généralisée
En Europe, la Commission européenne appelle à un grand débat européen sur l’utilisation de la reconnaissance faciale pour l’identification à distance. En France, le secrétaire d’Etat au numérique, Cédric O, souhaite lancer des expérimentations. Pour l’identification à distance, il faut avancer à tâtons pour trouver le bon équilibre entre les impératifs de sécurité publique et la préservation des valeurs démocratiques. Mais ce débat n’est pas différent au fond de celui qui, depuis 50 ans, entoure les technologies de surveillance des communications électroniques. La technologie utilisée pour la surveillance des communications n’a pas cessé d’évoluer : IMSI-catchers ou intercepteurs d’IMSI (3), boîtes noires, Deep Packet Inspection (DPI), captation à distance, … Ces outils permettraient une surveillance généralisée de la population. Leur utilisation en France est interdite, sauf par les forces de polices et des autorités de renseignement sous le contrôle de juges et de la CNCTR (4).
En application de la jurisprudence européenne, l’utilisation de technologies invasives de surveillance par l’Etat se justifie uniquement si l’utilisation est prévue par une loi. Et ce, pour faire face à une menace particulièrement grave, la lutte contre le terrorisme par exemple, et sous le contrôle d’un juge ou d’une commission indépendante. L’utilisation de la reconnaissance faciale pour identifier les individus à distance devrait suivre la même trajectoire : interdiction, sauf pour les autorités de police ou de renseignement sous le contrôle des juges. D’ailleurs, c’est déjà ce qui est prévu par la directive européenne européenne dite « Police-Justice » (5) de 2016, puisque la reconnaissance faciale est un traitement biométrique soumis à des règles strictes. Mais il existe un deuxième type d’utilisation, non-évoqué par la Commission européenne dans son livre blanc (6) sur l’intelligence artificielle (IA). Il s’agit de valider l’identité « en local » d’un individu en comparant sa photo « selfie » avec la photo de la pièce d’identité. Cette utilisation permet notamment d’ouvrir un compte bancaire à distance ou bien de passer plus vite dans un portique automatique à l’aéroport. Cette utilisation de la reconnaissance faciale se généralise, et elle paraît – de prime abord – moins attentatoire aux libertés individuelles : d’une part, parce que les personnes sont conscientes et consentantes de l’utilisation (ce qui n’est pas le cas pour l’identification à distance) ; d’autre part, parce qu’aucune image ni gabarit biométrique n’est stocké de manière centralisée. La vérification s’effectue en local, comme pour déverrouiller un smartphone avec l’empreinte digitale. Le système crée un gabarit biométrique à partir de la photo du passeport, analyse ensuite la photo de selfie, crée un deuxième gabarit biométrique du selfie, et compare les deux gabarits pour établir une probabilité de correspondance. Ensuite les gabarits sont détruits (lire encadré page suivante). La reconnaissance faciale locale soulève néanmoins des questions éthiques et juridiques importantes : l’existence d’un consentement libre, le problème des biais, l’explicabilité des algorithmes, et la difficile articulation avec le règlement général sur la protection des données (RGPD) pour la phase d’entraînement. La reconnaissance faciale « locale » pose la question du consentement libre. Si la personne subit des conséquences négatives en refusant la reconnaissance faciale, le consentement ne sera pas libre. Il en sera de même si le consentement est demandé par une personne jouissant d’une position d’autorité, par exemple si la direction d’un lycée demandait aux élèves de consentir à l’utilisation de la reconnaissance faciale pour rentrer dans l’établissement (7).

Les biais statistiques sont inévitables
Concerne les biais cette fois, le Parlement européen a appelé le 12 février 2020 à l’utilisation d’algorithme qu’il faut entraîner avec des données « non-biaisées » (8). Or, une telle condition est impossible à satisfaire en pratique. Certains groupes de la population seront toujours sous-représentés dans les images d’entraînement, ce qui signifie que les biais statistiques seront inévitables. Cela peut conduire à des niveaux de performance inégaux selon le genre, la couleur de peau ou la situation de handicap d’une personne. Par exemple, l’algorithme pourrait avoir plus de difficulté à identifier une femme noire qu’un homme blanc au moment de la vérification de l’identité à l’aéroport. Ces biais peuvent exister sous une forme bien pire chez les humains. Mais pour un algorithme, ce genre de biais est peu acceptable. Corriger ces biais dans l’algorithme est possible, mais cela soulève d’autres questions. Par exemple, si l’algorithme a un taux d’erreur élevé pour des personnes atteintes d’une certaine maladie de la peau, devons-nous baisser artificiellement le niveau de performance pour tous les autres groupes de la population pour que le taux d’erreur soit équivalent ? Ces questions deviennent rapidement politiques : à partir de quel moment un biais algorithmique devient-il suffisamment problématique pour le corriger, ce qui affectera inévitablement la performance de l’algorithme pour les autres personnes ?

Savoir s’il y a discrimination algorithmique
Un autre aspect éthique de la reconnaissance faciale concerne l’explicabilité des algorithmes. En France, le code des relations entre le public et l’administration garantit à chaque individu le droit d’obtenir une explication lorsqu’un algorithme géré par l’Etat prend une décision à son encontre (9). Logiquement, ce droit exige que l’exploitant de l’algorithme soit en mesure d’expliquer à une personne pourquoi un système n’a pas pu vérifier son image par rapport à sa pièce d’identité. Techniquement, des solutions d’explicabilité existent, même pour des réseaux de neurones. Mais fournir une explication exige le stockage d’informations, et notamment les gabarits générés par l’algorithme. Or, le RGPD et la directive « Police- Justice » interdisent généralement ce stockage, surtout lorsqu’il s’agit de données biométriques.
Résultat : dans certains cas, il n’y aura aucune explication quant au refus du système de vérifier l’identité. Le système ne réussira pas à identifier la personne, sans que la personne puisse vérifier si elle a fait l’objet d’une discrimination algorithmique. Cette absence de transparence pose une difficulté au niveau des droits fondamentaux, comme le démontre une récente décision du tribunal de la Haye (10).
Enfin, l’entraînement des algorithmes de reconnaissance faciale est difficile à réconcilier avec le RGPD. Pour réduire les discriminations, l’Agence européenne des droits fondamentaux (FRA) souligne la nécessité d’entraîner l’algorithme sur une grande quantité d’images représentatives de la population, et notamment les personnes vulnérables (11). Or cette condition est quasiment impossible à remplir en Europe puisque le RGPD et la directive « Police-Justice » interdisent la création de grandes bases d’images, surtout lorsque les images sont étiquetées selon la couleur de peau ou la situation de handicap. Les systèmes américains et chinois bénéficient, eux, d’entraînement sur des dizaines de millions d’images, ce qui crée un avantage concurrentiel considérable. De plus, les tests de non-discrimination des algorithmes s’effectuent tous aux Etats-Unis à l’agence NIST (12), même pour les systèmes européens.
L’entraînement des algorithmes pose un problème particulier puisque le gabarit d’un visage est considéré comme une donnée biométrique. Or le RGPD interdit le traitement de données biométriques, hormis des cas limités – par exemple, le consentement explicite de la personne. Du coup, un entraînement sur des millions d’images récupérées sur Internet devient impossible par une société européenne puisque l’entraînement nécessite la création, au moins temporaire, de gabarits, une donnée biométrique. Une solution pourrait consister en l’assouplissement des conditions d’application du RGPD lorsqu’il s’agit de créer des gabarits éphémères pour l’apprentissage des algorithmes dans des environnements contrôlés, voire de considérer que ces gabarits ne sont pas des données biométriques puisque la finalité de leur traitement n’est pas l’identification d’une personne mais seulement l’entraînement de l’algorithme. Lorsque l’algorithme est mis en exploitation, les dispositions du RGPD ou de la directive « Police-Justice » sur la biométrie retrouveraient toute leur force, puisque les gabarits seraient bien utilisés pour identifier des personnes. Le consentement explicite de la personne, ou en cas d’intérêt public et de nécessité absolue, serait alors nécessaire. @

* Winston Maxwell, ancien avocat, est depuis juin 2019 directeur d’études
Droit et Numérique à Telecom Paris. ** David Bounie est directeur du
département Economie et Sciences sociales à Telecom Paris.

ZOOM

Qu’est-ce qu’un gabarit ?
Un gabarit est l’équivalent d’un code barre qui contient les mensurations uniques d’un visage. La clé du succès en matière de reconnaissance faciale est de créer un algorithme capable de générer des gabarits de qualité à partir d’images d’individus. Un algorithme de qualité doit savoir générer le même gabarit pour l’image de Paul, quelles que soient les différences de lumière, d’angle de vue et de netteté de l’image de Paul. Pour entraîner l’algorithme, on va présenter à un réseau de neurones 100 photos d’une même personne — par exemple Angelina Jolie — récupérées sur le Web, avec des angles de vue et des lumières différents, et demander au réseau de neurones de trouver une formule mathématique qui permettra pour chaque photo d’Angelina Jolie de générer le même gabarit, quels que soient l’angle de vue ou la lumière. Les gabarits générés pendant l’apprentissage sont éphémères. Ils servent uniquement à aider l’algorithme à trouver la bonne formule mathématique. Une fois cette formule mathématique unique établie, elle peut s’appliquer à n’importe quelle nouvelle photo de passeport et générer, pour cette photo, un gabarit de qualité. L’algorithme va ensuite générer un deuxième gabarit à partir d’une deuxième photo (par exemple un selfie), et si l’algorithme est bien fait, les deux gabarits vont correspondre malgré les différences d’angle de vue et de lumière. La qualité de cet algorithme est au cœur des systèmes de reconnaissance faciale. @

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @

Les plateformes numériques sont-elles parties pour un grand chelem de sanctions ?

Les géants du Net sont pris entre deux feux principaux : le droit de la concurrence, d’une part, et la protection des données, d’autre part. Mais ces deux référentiels juridiques s’entremêlent de plus en plus et se démultiplient, au risque d’aboutir à des doubles sanctions. Ce que l’Europe assume.

Par Olivier de Courcel, avocat associé, cabinet Féral-Schuhl/Sainte-Marie

Alors que les textes de référence s’accumulent, de même que les procédures de contrôle et les sanctions (aux amendes toujours plus élevées), la mise en conformité (compliance) devient comme un grand chelem pour les plateformes numériques. Les procédures se multiplient: aux Etats-Unis, 5 milliards de dollars imposés à Facebook par la FTC américaine en juillet 2019, contrôle en cours par le DoJ sur les GAFA, enquête préliminaire conjointe de 48 Etats fédérés ; en Europe, amende de 2 millions d’euros en Allemagne pour le manque de transparence de Facebook sur les contenus illicites (1), enquête préliminaire lancée par la Commission européenne sur la collecte et l’utilisation des données des utilisateurs de Google (2), contrôle en cours par la « Cnil » irlandaise sur les ventes aux enchères d’espaces publicitaires de Google, pré-rapport de l’autorité de la concurrence britannique (CMA) sur les plateformes (3), etc…

Un empilement de textes et de sanctions
Or les référentiels juridiques ainsi opposés aux plateformes numériques sont d’autant plus complexes à articuler qu’ils tendent à s’ajouter en silos les uns à la suite des autres sans mise en cohérence. Les plateformes numériques sont d’abord des habituées du droit de la concurrence. La première décision rendue en France contre Google, en 2010 par l’Autorité de la concurrence, sanctionnait déjà le fonctionnement discriminatoire de l’affichage publicitaire sur le moteur de recherche et l’opacité des conditions de fourniture et interruption de son service Adwords (4). Le même abus de position dominante était soumis au gendarme de la concurrence à deux occasions en 2019 (5), ce qui l’amena en décembre dernier à assortir son injonction d’une sanction pécuniaire de 150 millions d’euros (6). Google a également fait l’objet de sanctions par la Commission européenne, à trois reprises entre 2017 et 2019 et pour un total qui dépasse 8 milliards d’euros (7). Par ailleurs, au titre du contrôle des concentrations, cette dernière a approuvé les principales opérations de fusion-acquisition des plateformes, notamment celle en 2014 de WhatsApp par Facebook (8). Ensuite, l’entrée en vigueur fracassante du règlement général sur la protection des données (RGPD), le 25 mai 2018, avec possibilité de sanctions jusqu’à 4% du chiffre d’affaires, a amené les entreprises, y compris les plateformes numériques, à prendre plus au sérieux le référentiel juridique applicable aux traitements de données à caractère personnel. A ce jour, néanmoins, les sanctions prononcées ne dépassent pas 215 millions d’euros pour un dossier (9). Les plateformes numériques connaissent bien l’orientation des régulateurs européens en matière de données et vie privée puisque, ne serait-ce qu’en France, Facebook a subi en 2017 deux décisions de sanction : l’une pour sa combinaison massive de données à des fins de ciblage publicitaire des internautes, y compris à leur insu et sur des sites tier (150.000 euros) (10); l’autre pour le traitement illégal par Facebook de données reçues de WhatsApp, (150.000 euros) (11).
Enfin, dans le cadre de sa stratégie pour un marché unique numérique, la Commission européenne a défini des règles applicables à l’ensemble des plateformes en ligne et places de marché actives dans l’Union européenne (près de 7.000), inspirées du droit de la concurrence et du droit de la consommation. Avec le règlement de juin 2019 sur les services d’intermédiation en ligne (12), elle interdit à toute plateforme numérique (et pas seulement celles en position dominante) de fermer sans motif le compte d’un vendeur. Dans le même cadre, les directives européennes concernant les consommateurs ont fait l’objet d’une révision d’ensemble via une directive du 27 novembre 2019 (13). Tout en renforçant la transparence pour les transactions BtoC sur les places de marché en ligne et en établissant une protection pour les consommateurs vis-à-vis des services numériques dits « gratuits » mais fournis contre leurs données personnelles, la nouvelle directive reprend le principe de sanctions pécuniaires qui, dans les lois nationales, devront s’élever « au moins » à 4% du chiffre d’affaires réalisé. En matière de « compliance », le RGPD fait des émules…

Application cumulative ou alternative
Le droit européen de la consommation apporte ainsi un troisième référentiel juridique pour le contrôle et la sanction des plateformes numériques (lesquels relèvent cependant à titre principal des autorités nationales). Encore ce panorama doit-il être complété par des réglementations plus spécifiques telles que la fiscalité (taxe GAFA), le droit d’auteur et les droits voisins de la presse (Google Actualités), la réglementation des télécoms (neutralité du Net) et d’autres…. Les référentiels de conformité opposables aux plateformes numériques s’articulent en fonction de leur objet et de leur échelon de contrôle (autorités nationales ou Commission européenne), ce qui peut entraîner une application cumulative ou alternative selon les cas.

RGPD et abus de position dominante
L’information donnée aux internautes est à l’intersection du droit de la concurrence et de la réglementation des données. Lorsque la filiale WhatsApp informe en 2016 ses utilisateurs qu’elle croisera leurs numéros de téléphone avec leurs identifiants Facebook, la Commission européenne constate que le rapprochement des deux bases de données était déjà possible techniquement lors de l’acquisition par Facebook en 2014, contrairement aux informations alors fournies. Facebook s’en sort en mai 2017 avec une amende de 110 millions d’euros. Mais cette transmission des données de WhatsApp et le manque d’information aux personnes sont aussi sanctionnés par la Cnil en décembre 2019 (150.000 euros). Le droit des abus de position dominante peut aussi prendre en compte une infraction à une loi spécifique, à partir du moment où l’infraction traduit un abus de cette position qui a pour objet ou pour effet de restreindre la concurrence sur le marché considéré (14). C’est ainsi qu’en Allemagne, l’autorité de la concurrence s’est essayée en février 2019 à démontrer les manquements de Facebook au RGPD pour considérer qu’ils traduisaient en tant que telle la position dominante du réseau social et son exploitation abusive (15). En appel, cette confusion des genres n’a pas été écartée dans le principe, mais la cour régionale de Düsseldorf a considéré que le non-respect du RGPD ne démontrait pas à lui seul l’existence d’un abus de position dominante ayant un effet anti-concurrentiel (16).
En sens inverse, pour le calcul de ses sanctions, le RGPD prend en compte certains aspects qui peuvent traduire une position dominante, tels que le nombre de personnes concernées par la violation ou bien les avantages financiers obtenus (17). Dans ses décisions concernant Facebook, la Cnil ne manque pas d’évoquer les 33 millions de personnes concernées et le caractère massif de la collecte de données qui en résulte (18). Dans sa décision de janvier 2019 concernant Google (50 millions d’euros), la Cnil considère même que la position dominante du système d’exploitation Android sur le marché français, associée au modèle économique du moteur de recherche bâti sur la publicité personnalisée, renforce les obligations de Google au titre du RGPD (19). A l’échelon de l’Union européenne, le commissaire à la Concurrence envisage de combiner la réglementation des données personnelles et les règles antitrust en analysant les données comme des actifs, dont la valeur croît d’autant plus qu’elles ne sont pas facilement accessibles ou reproductibles et qu’elles peuvent constituer une barrière à l’entrée pour d’autres entreprises. En sens inverse, il anticipe que la qualité de la protection de la vie privée offerte par un service puisse stimuler la concurrence (20). De telles situations créent le risque d’une double sanction pour un même comportement, au titre du droit de la concurrence et du RGPD ou d’une autre réglementation, comme dans le cas Facebook-WhatsApp. En effet, si le principe « non bis in idem » interdit d’appliquer plusieurs sanctions à une même infraction, des exceptions sont possibles lorsqu’il existe un motif d’intérêt général, lorsque que les sanctions ont des objectifs complémentaires et lorsqu’elles respectent le principe de nécessité et proportionnalité des peines (21).
A l’opposé des situations de recoupement, il peut y avoir des « vides réglementaires », lorsqu’un acteur ne se trouve pas en position dominante ou que son comportement n’a pas d’effet anti-concurrentiel sur le marché et que, pour autant, la réglementation n’est pas assez précise pour incriminer son comportement. C’est en ce sens que le règlement de juin 2019 sur les services d’intermédiation en ligne établit des règles inspirées du droit de la consommation pour les entreprises qui normalement n’en bénéficient pas. Or le partage des compétences entre autorités de contrôle est un facteur majeur de la fragmentation des décisions.
Au lieu d’une répartition à partir de seuils de chiffre d’affaires assortie d’un principe de dessaisissement des autorités nationales au profit de la Commission européenne, comme en droit de la concurrence, le RGPD prévoit la compétence de l’autorité nationale de chaque pays concerné par le traitement de données en cause. Un traitement transfrontalier peut être suivi par une autorité nationale « chef de file » (22), mais celle-ci doit susciter un consensus avec ses pairs sur son projet de décision. En cas de désaccord entre autorités nationales, le comité européen à la protection des données (CEPD), qui les réunit toutes, est appelé à trancher (23). En pratique, le risque serait de voir la violation des règles de protection des données sanctionnée faiblement ou pas du tout par les autorités nationales (plus sensibles aux intérêts économiques de leur pays) et se trouver sanctionnée lourdement par la Commission européenne mais au titre du droit de la concurrence. La crédibilité du RGPD s’en trouverait réduite.

Une politique des plateformes s’impose en Europe
Dans ce contexte réglementaire fragmenté, des appels se font entendre pour réviser le droit de la concurrence, promouvoir l’open data et l’interopérabilité, réguler les plateformes numériques à l’instar des opérateurs télécoms dominants, ou encore scinder les GAFAM. Mais en attendant de telles réformes, on peut s’interroger sur le risque de l’absence de politique ou de projet industriel européens pour concurrencer les plateformes américaines et chinoises et pour traiter les données en Europe. @

Droit moral des auteurs de films et de séries : le final cut «à la française» s’imposera par la loi

Netflix, Amazon Prime Video ou encore Disney+ seront tenus de respecter le final cut « à la française », qui requiert l’accord du réalisateur pour le montage définitif d’un film ou d’une série. Ce droit moral est visé par le projet de loi sur l’audiovisuel présenté le 5 décembre dernier.

Charles Bouffier, avocat conseil, et Charlotte Chen, avocate, August Debouzy

Le final cut désigne la version définitive du montage d’une œuvre cinématographique ou audiovisuelle – un film ou une série par exemple – distribuée ou diffusée. Le final cut désigne également un droit, celui que détient la personne qui a le pouvoir de décider de ce montage définitif. S’il est d’usage aux Etats-Unis que le producteur ait ce pouvoir décisionnel (laissant éventuellement au réalisateur le loisir d’éditer une version « director’s cut »), la situation française est différente en vertu notamment des droits moraux dont jouissent les auteurs.

Ce que dit le droit américain
A l’heure ou des producteurs et/ou diffuseurs américains – au premier rang desquels Netflix – investissent de plus en plus le champ de la création audiovisuelle européenne, et notamment française, le final cut « à l’américaine » estil soluble dans le paysage audiovisuel français ? La question est plus que jamais d’actualité compte-tenu des dispositions du projet de loi relatif à la communication audiovisuelle. Selon le régime du « work made for hire » du copyright américain, à savoir le « Title 17 – Copyrights » (1), le commanditaire d’une œuvre notamment audiovisuelle ou cinématographique (2), est considéré, par principe, comme titulaire des droits sur l’œuvre (3). Par conséquent, à moins que les parties en conviennent autrement, tous les droits d’auteur (copyright) de l’œuvre, incluant le final cut, sont détenus par le commanditaire. La cession des droits, et du final cut plus particulièrement, peut néanmoins être aménagée dans le contrat de production, conformément à ce que recommande la Directors Guild of America (syndicat professionnel représentant les intérêts des réalisateurs américains). Par ailleurs, le copyright américain protège le droit à la paternité et le droit à l’intégrité de l’œuvre de l’auteur mais uniquement pour les œuvres pouvant être qualifiées de « work of visual art » (4). Celles-ci sont limitativement énumérées – peintures, dessins, sculptures, etc. – et n’incluent pas les œuvres cinématographiques et audiovisuelles (5). En droit français, depuis 1957 pour les œuvres cinématographiques (6) et 1985 pour les œuvres audiovisuelles au sens large (7), le final cut résulte d’un commun accord entre le réalisateur et le producteur. Le texte est aujourd’hui codifié à l’article L. 121-5 du code de la propriété intellectuelle (CPI), comme suit : « L’œuvre audiovisuelle est réputée achevée lorsque la version définitive a été établie d’un commun accord entre, d’une part, le réalisateur ou, éventuellement, les coauteurs et, d’autre part, le producteur. Il est interdit de détruire la matrice de cette version. Toute modification de cette version par addition, suppression ou changement d’un élément quelconque exige l’accord des personnes mentionnées au premier alinéa. […] ». Dans la mesure où les prérogatives ainsi reconnues au réalisateur découlent de son droit moral (droit de divulgation/droit au respect de l’intégrité de l’œuvre), elles sont en principe incessibles et ne peuvent faire l’objet d’une renonciation par anticipation (8). Elles peuvent cependant faire l’objet de certains aménagements contractuels dans le contrat de production (prise en compte des commentaires du producteur, délais impartis à ce dernier pour émettre un avis, etc.). En outre, une partie qui refuserait de collaborer de bonne foi dans la mise en œuvre de cet article L. 121-5 pourrait voir sa responsabilité contractuelle engagée, tout refus abusif pouvant par ailleurs être surmonté par le recours au juge (9).
Ces dispositions permettent donc au réalisateur d’affirmer ses choix artistiques, en collaboration avec le producteur. Elles permettent également aux auteurs de faire respecter leur choix quant au montage définitif après achèvement de l’œuvre audiovisuelle. L’achèvement du film est même une des conditions pour que l’auteur puisse exercer ses droits moraux tels que listés à l’article L.121-1 du CPI (10). A titre d’illustration, un juge des référés a été conduit à prononcer l’interdiction de diffusion d’un film suite à l’opposition du réalisateur à la divulgation d’une version définitive n’ayant pas reçu son accord. Le juge a considéré que le réalisateur avait démontré les justes motifs de s’opposer à la divulgation de la version définitive litigieuse (11).

Le Final cut français reconnu d’ordre public
Ainsi, l’auteur peut avoir intérêt à se prévaloir de ses prérogatives tirées de l’article L.121-5 du CPI avant achèvement de l’œuvre, au cours de ses échanges avec son producteur, car postérieurement au montage définitif il lui sera nécessaire d’apporter la preuve d’un préjudice subi en raison des différentes atteintes alléguées (12). • Quid d’un contrat de production conclu avec un auteur français mais soumis au droit américain ? En droit interne, la Cour de cassation a expressément reconnu en 1973 le caractère d’ordre public du final cut « à la française » en déclarant nulle comme contraire à l’ordre public une clause qui conférerait le pouvoir de décision du montage définitif à la seule société productrice (13). Cette solution est conforme à une jurisprudence constante selon laquelle les dispositions de l’article L.121-1 du CPI sont d’ordre public (14). Mais un contrat de production audiovisuelle régi par un droit étranger pourrait-il contourner ce régime ? La question mérite d’être posée, car l’ordre public interne n’est pas nécessairement transposable à l’ordre public international.

Transposition de la directive « SMA »
Sur la base de l’article L. 121-1 du CPI, la jurisprudence française reconnaît cependant que la protection accordée par le droit moral à l’auteur est d’ordre public au sens du droit international privé. En particulier, la Cour de cassation, après avoir rappelé l’impérativité du droit au respect de l’intégrité de l’œuvre, a considéré qu’une Cour d’appel avait violé l’article L. 121-1 du CPI en refusant aux héritiers d’un réalisateur américain (John Huston) la possibilité de s’opposer à la version colorisée d’un film au motif que la loi américaine et les contrats passés conclus entre le producteur et les réalisateurs leur déniait la qualité d’auteur (15). Avant cet arrêt, la Cour d’appel de Paris avait déjà reconnu que le droit moral français pouvait être invoqué comme une exception d’ordre public aux clauses d’un contrat soumis à la loi de l’Etat de New-York (16). Aussi, dans la mesure où le final cut de l’article L.121-5 du CPI découle du droit moral de l’auteur, il pourrait être soutenu, par analogie avec les arrêts précités, que les prérogatives du réalisateur prévues par cet article sont d’ordre public au sens du droit international privé. Elles pourraient donc être invoquées comme une exception d’ordre public à la loi étrangère qui énoncerait un régime contraire, pour la neutraliser. En d’autres termes, la clause qui prévoirait que le montage définitif d’une œuvre audiovisuelle serait confié exclusivement au producteur pourrait être déclarée nulle par le juge français, même si la loi du contrat le permettrait. • Quels vont être en France les apports du projet de loi audiovisuel ? Le Parlement s’apprête à réformer le cadre juridique audiovisuel français, issu principalement de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication (loi dite « Léotard »). Il s’agit notamment de transposer la directive européenne sur les services de médias audiovisuels, actualisée en 2018 – directive SMA (17) – pour étendre les règles audiovisuelles aux nouveaux services de médias audiovisuels à la demande (SMAd) tels que Netflix, Amazon Prime Video ou bien encore Disney+. En effet, soucieux d’adapter le cadre juridique de l’audiovisuel français à ces enjeux numériques mais également dans le but de transposer certaines dispositions de la directive sur le droit d’auteur dans le marché unique numérique (18), le ministère de la Culture a proposé un « projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique » présenté en conseil des ministres le 5 décembre 2019. Ce projet de loi devrait en principe être discuté au Parlement début 2020 selon la procédure accélérée. Les SMAd semblent particulièrement visés par les articles 1er et 7 de ce projet de loi – dans sa dernière version publique (19) –, qui tendent à renforcer la protection des droits moraux et patrimoniaux des auteurs avec lesquels ils peuvent être amenés à contracter. L’article 1er propose en effet d’exclure des œuvres prises en compte au titre de la contribution au développement de la production française celles dont les contrats de production ne respecteraient ni les droits moraux des auteurs ni les principes relatifs à leur rémunération (20). A cet égard, l’article 1er vise expressément l’article L. 121-1 du CPI et, surtout, l’article L. 121-5 du CPI qui prévoit le régime français du final cut. Dans le même sens, l’article 7 propose d’insérer un nouvel article L. 311-5 dans le code du cinéma et de l’image animée qui subordonnerait les aides financières du CNC à l’inclusion, dans les contrats conclus avec les auteurs d’œuvres cinématographiques et audiovisuelles, de clauses types garantissant le respect des droits énoncés par l’article 1er.
Le respect effectif des droits d’auteur deviendrait ainsi une mission du CNC (21) qui pourrait saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom, future autorité administrative indépendante issue de la fusion entre le CSA et la Hadopi) chargée de contrôler de cette exigence (22). Ces articles résultent en partie d’une proposition formulée par le rapport Bergé (23), qui considérait qu’une garantie de rémunération proportionnelle des auteurs était nécessaire au regard des pratiques de certains SMAd, Netflix étant visée expressément (24). En revanche, le rapport Bergé n’abordait pas la problématique du respect des droits moraux des auteurs dans les contrats de production. Il semblerait que cet ajout – et plus particulièrement la référence à l’article L.121-5 du CPI – interviennent en réponse aux doléances de certains producteurs et auteurs français confrontés aux pratiques contractuelles de Netflix, alors pourtant que son avocat français assure que « tous les contrats de Netflix sont conformes au droit français » (25).

Négociations contractuelles sous l’œil de la loi
En tout état de cause, si ces nouvelles dispositions étaient adoptées, les œuvres – dont les contrats de production réserveraient le final cut exclusivement au producteur – risqueraient de ne pas être prises en compte au titre de la contribution au développement de la production française. Et ces œuvres pourraient être privées des aides du CNC, dotant ainsi les auteurs d’un argument financier de taille dans la négociation contractuelle de leurs droits. @

A la poursuite du droit à l’oubli et d’un équilibre par rapport aux autres droits fondamentaux

Le droit à l’oubli sur Internet – dont le droit au déréférencement sur les moteurs de recherche – n’est pas un droit absolu. Il s’arrête là où commencent d’autres droits fondamentaux comme la liberté d’informer – selon le principe de proportionnalité. Mais cet équilibre est à géométrie variable.

Fabrice Lorvo*, avocat associé, FTPA.

L’oubli est une préoccupation récente aux racines millénaires. C’est d’abord un concept auquel notre civilisation est rompue depuis le code de Hammurabi (1). Cependant, l’effectivité de l’oubli a été profondément remise en cause par la révolution numérique car la donnée devient aujourd’hui indéfiniment apparente sur les sites web et immédiatement accessible par les moteurs de recherche. Dès lors, le législateur comme le juge œuvrent pour adapter un droit à l’oubli (2) à l’outil numérique.

Conditions du droit au déréférencement
Deux arrêts ont été rendus le 24 septembre 2019 par la Cour de justice de l’Union européenne (CJUE) qui contribuent à en définir les modalités. Nous nous intéresserons à celui (3) qui apporte d’importantes précisions sur les conditions dans lesquelles une personne peut exercer son droit au déréférencement. Ce droit permet à une personne de demander à un moteur de recherche de supprimer certains résultats qui apparaissent à partir d’une requête faite avec son nom et son prénom lorsque ces résultats renvoient vers des pages contenant des informations sensibles la concernant (par exemple, sa religion, ses opinions politiques ou l’existence d’une procédure pénale). Cette suppression concerne uniquement la page de résultats et ne signifie donc pas l’effacement des informations sur le site web source. Les informations continuent d’exister, mais il est plus difficile et long de les retrouver.
Au regard des textes successivement applicables (4), et des enseignements de la jurisprudence « Google Spain » (5) de 2014, la CJUE apporte les précisions suivantes :

Les interdictions et les restrictions au traitement de certaines données, comme les exceptions prévues par les textes, s’appliquent à l’exploitant d’un moteur de recherche à l’occasion de la vérification qu’il doit opérer à la suite d’une demande de déréférencement. Le rôle du moteur de recherche est décisif dans la mesure où, techniquement, il permet de trouver immédiatement, dans l’océan des données disponibles sur Internet, toutes les informations sur une personne dénommée, et, en les regroupant, de constituer ainsi un profil. La cour rappelle que l’exploitant d’un moteur de recherche n’est pas responsable des données existantes, mais uniquement de leur référencement et de leur affichage dans une page de résultats suite à une requête nominative. Cet exploitant doit respecter la législation sur le traitement des données comme les éditeurs de sites web. Tout autre interprétation constituerait « une ingérence particulièrement grave dans les droits fondamentaux au respect de la vie privée et à la protection des données à caractère personnel » qui sont garantis par les textes.

L’exploitant d’un moteur de recherche a l’obligation de faire droit à la demande de la personne concernée… sauf si des exceptions (prévues par les textes) s’appliquent. La CJUE rappelle que les Etats membres doivent garantir aux personnes concernées le droit d’obtenir du responsable de traitement l’effacement des données dont le traitement n’est pas conforme aux textes. De même, en cas de demande de déréférencement, l’exploitant d’un moteur de recherche est obligé de supprimer de la liste de résultats, des liens vers des pages web, publiées par des tiers et contenant des informations sensibles relatives à cette personne, même si lesdites informations ne sont pas effacées préalablement ou simultanément de ces pages web, et même lorsque leur publication en elle-même sur lesdites pages est licite. Enfin, la cour rappelle que le consentement de la personne au traitement de ce type d’information est nécessaire et qu’il n’existe plus à partir du moment où ladite personne demande le déférencement. Il n’est donc pas nécessaire de prouver que le référencement cause un préjudice.

Droit absolu et principe de proportionnalité
Ce régime extrêmement protecteur, eu égard à l’importance de l’impact d’une telle publication pour l’individu, connaît néanmoins une exception de taille. En effet, l’ingérence dans les droits fondamentaux d’un individu peut cependant être justifiée par l’intérêt prépondérant du public à avoir accès à l’information (6) en question. Le droit au déréférencement des données à caractère personnel n’est donc pas un droit absolu, il doit être systématiquement comparé avec d’autres droits fondamentaux conformément au principe de proportionnalité. En conséquence, le droit à l’oubli de la personne concernée est exclu lorsqu’il est considéré que le traitement desdites données est nécessaire à la liberté d’information. Le droit à la liberté d’information doit répondre à des objectifs d’intérêt général reconnu par l’Union européenne ou, au besoin, de protection des droits et des libertés d’autrui.

Droits fondamentaux et liberté d’informer
Lorsqu’il est saisi d’une demande de déréférencement, l’exploitant d’un moteur de recherche doit donc mettre en balance, d’une part, les droits fondamentaux de la personne concernée et, d’autre part, la liberté d’information des internautes potentiellement intéressés à avoir accès à cette page web au moyen d’une telle recherche. D’après la CJUE, si les droits de la personne concernée prévalent, en règle générale, sur la liberté d’information des internautes, cet équilibre peut toutefois dépendre de la nature de l’information en question et de sa sensibilité pour la vie privée de la personne concernée ainsi que l’intérêt du public à disposer de cette information. Or, cet intérêt peut varier notamment en fonction du rôle joué par cette personne dans la vie publique, comme l’illustre la jurisprudence « Google Spain ».

Enfin, la CJUE aborde la question cruciale de la publication relative à une procédure judiciaire, notamment quand ces informations sont devenues obsolètes. Il s’agit des informations concernant une enquête, une mise en examen ou un procès et, le cas échéant, de la condamnation qui en a résulté. La cour rappelle que la publication de ces données est soumise à des restrictions particulières (7) et qu’elle peut être licite lorsqu’elle est divulguée au public par les autorités publiques. Cependant, un traitement initialement licite de données exactes peut devenir avec le temps illicite, notamment lorsque ces données apparaissent inadéquates, qu’elles ne sont pas ou plus pertinentes, ou sont excessives au regard des finalités du traitement ou du temps qui s’est écoulé. L’exploitant d’un moteur de recherche doit encore vérifier, au jour de la demande de déréférencement, si l’inclusion du lien dans le résultat est nécessaire à l’exercice du droit à la liberté d’information des internautes potentiellement intéressés par l’accès à cette page web au moyen d’une telle recherche. Dans la recherche de ce juste équilibre entre le droit au respect de la vie privée des personnes, et notamment la liberté d’information du public, il doit être tenu compte du rôle essentiel que la presse joue dans une société démocratique et qui inclut la rédaction de comptes rendus et de commentaires sur les procédures judiciaires, ainsi que le droit pour le public de recevoir ce type d’information. En effet, selon la jurisprudence (8), le public a un intérêt non seulement à être informé sur un événement d’actualité, mais aussi à pouvoir faire des recherches sur des événements passés, l’étendue de l’intérêt du public quant aux procédures pénales étant toutefois variable et pouvant évoluer au cours du temps en fonction, notamment, des circonstances de l’affaire : notamment « la nature et la gravité de l’infraction en question, le déroulement et l’issue de ladite procédure, le temps écoulé, le rôle joué par cette personne dans la vie publique et son comportement dans le passé, l’intérêt du public à ce jour, le contenu et la forme de la publication ainsi que les répercussions de celle-ci pour ladite personne ».

Outre l’actualité ou le passé définitif, une difficulté demeure pour les informations obsolètes ou partielles. Par exemple, qu’en est-il pour une mise en examen annoncée sur Internet qui a aboutie à un non-lieu ? Ou pour une décision de condamnation frappée d’appel ? L’apport nouveau et essentiel de cet arrêt du 24 septembre 2019 est que la CJUE considère que même si la liberté d’information prévaut, l’exploitant est en tout état de cause tenu – au plus tard à l’occasion de la demande de déréférencement – d’aménager la liste de résultats, de telle sorte que l’image globale qui en résulte pour l’internaute reflète la situation judiciaire actuelle. Ce qui nécessite notamment que des liens vers des pages web comportant des informations à ce sujet apparaissent en premier lieu sur cette liste. Il s’agit là d’une précision essentielle, en théorie, mais qui peut s’avérer complètement inefficace en pratique. Pour apparaître dans les résultats, ces pages (sur la situation judiciaire actuelle) doivent… exister. Que se passe-t-il si des pages web ne comportent pas d’informations sur la suite de la procédure ? Souvent, la presse s’intéresse plus aux mises en examen qu’aux cas de nonlieu. La personne concernée devra-t-elle publier elle-même des pages web sur sa situation judiciaire actuelle ? Mais dans l’esprit du public, quelle force aura cette preuve pro domo (9) ? Devra-t-elle avoir recours à une agence de communication pour ce faire ? Enfin, les délais de traitement des demandes de référencement sont très longs, d’abord pour les moteurs de recherche puis au niveau des autorités de contrôle (la Cnil en France), et, pendant ce temps-là, les résultats de la recherche demeurent affichés ; le mal est fait. Avoir raison trop tard, c’est toujours avoir tort dans l’esprit du public.

Renverser la charge de la preuve ?
Dans ces conditions, pour ce type d’information d’une extrême sensibilité et, au moins, pour les personnes qui ne recherchent pas les suffrages du public, ne conviendrait-il pas de renverser la charge de la preuve ? D’imposer que l’exploitant du moteur de recherche ait l’obligation, à première demande, de déréférencer ces données ? Et s’il considère que la balance penche dans l’intérêt du public, l’exploitant devra saisir l’autorité de contrôle puis, en cas de refus, les tribunaux pour demander l’autorisation de re-référencer le lien. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.