Open data des décisions judiciaires et administratives : des avancées mais encore des zones floues

Le 30 juin a été publié au J.O. le décret de mise à disposition du public des décisions judiciaires et administratives. Soit près de quatre ans après la loi « pour une République numérique » annonçant l’open data de ces décisions. Mais il faudra des arrêtés et des circulaires pour y voir plus clair.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

La loi « pour une République numérique » du 16 octobre 2016, en annonçant l’open data des décisions de justice (1), marquait une étape décisive dans le processus de l’accès au droit pour tous. Mais il aura fallu attendre la loi « de programmation 2018-2022 et de réforme pour la justice » du 23 mars 2019 pour rouvrir le dossier de l’open data des décisions judiciaires (2). Et encore une année de plus pour que le décret pour « la mise à la disposition du public des décisions des juridictions judiciaires et administratives » du 29 juin 2020 soit publié.

Occulter les données ou pas, c’est selon
Ce décret de mise à la disposition du public, sur Internet, des décisions judiciaires et administratives apporte quelques précisions complémentaires. Pour autant, dans sa formule « a minima », le dispositif prête à beaucoup d’interrogations et laisse de grandes zones d’ombres. En attendant les arrêtés et circulaires à suivre, un point d’étape s’impose. S’agissant tout d’abord de la responsabilité de la collecte et de la diffusion des décisions de justice sous format électronique, celle-ci est confiée respectivement à la Cour de cassation pour les décisions de l’ordre judiciaire, et au Conseil d’Etat pour les décisions de l’ordre administratif. C’est une bonne chose et cela est conforme au souhait exprimé par le Conseil national des barreaux (CNB) dans une déclaration signée avec la Cour de cassation en juin 2019 et avec le Conseil d’Etat en juin 2020. En effet, cette règle devrait mettre un terme à la délivrance « sauvage » des copies aux tiers qui a permis à certains de constituer un fonds documentaire, dans le cadre d’accords bilatéraux avec certains greffes.
Désormais, la délivrance des copies aux tiers ne pourra concerner que des décisions « précisément identifiées » (3). Pour les décisions de l’ordre judiciaire, le refus de délivrance ou le silence gardé pendant deux mois pourra donner lieu à un recours gracieux devant le président de la juridiction. Enfin, le greffier devra occulter les éléments permettant l’identification des personnes physiques de nature à porter atteinte à leur sécurité ou au respect de la vie privée des personnes ou celles de leur entourage, précision donnée que cette occultation sera automatique lorsqu’elle a été faite pour la mise à disposition du public. Le recours contre cette décision sera possible, par requête présentée par un avocat, devant le président de la juridiction auprès de laquelle le greffier exerce ses fonctions. Le président statuera par ordonnance, le demandeur et les personnes physiques, parties ou tiers, mentionnées dans la décision, si possible entendus ou appelés. En revanche, les questions relatives à l’exhaustivité et l’intégrité de la base de données demeurent entières alors que les résultats d’une recherche peuvent être différents selon la constitution de la base de données. Imaginons un instant que les décisions collectées soient toutes du Nord de la France sans tenir compte des jurisprudences d’autres régions.
S’agissant ensuite de l’occultation des données à caractère personnel, l’objectif consiste à trouver le juste équilibre entre le droit à l’information du public et le droit au respect de la vie privée des personnes concernées par les décisions de justice. La loi du 23 mars 2019 a prévu que les noms et prénoms des personnes physiques, parties ou tiers à l’affaire, seraient systématiquement anonymisés (4). Quant aux autres éléments identifiants, ils devront être occultés par le juge lorsque leur « divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage ». La décision d’occultation peut également porter sur tout élément de la décision dont la divulgation est susceptible de « porter atteinte aux intérêts fondamentaux de la Nation » (5).

Deux temps d’appréciation sont prévus
Pour la mise en œuvre de ce dispositif, le décret du 29 juin 2020 prévoit deux temps d’appréciation. Le premier temps se situe à la suite du prononcé du délibéré : le juge ou le président de la formation prend la décision d’occulter les informations indirectement identifiantes présentant l’un des deux risques précités (6). Le deuxième temps se situe après la publication en ligne de la décision : tout intéressé peut alors introduire, auprès d’un membre du Conseil d’Etat désigné par le vice-président du Conseil d’Etat (pour les décisions administratives) ou auprès d’un membre de la Cour de cassation désigné par le premier président (pour les décisions judiciaires), une demande d’occultation ou de levée d’occultation des éléments d’identification. Outre le fait qu’il en résulte une charge complémentaire pour les magistrats, ce mécanisme laisse au juge une marge très importante – trop ? – d’appréciation sur les informations dont la divulgation serait de nature à porter atteinte à la sécurité ou au respect de la vie privée des personnes citées dans la décision. Jusqu’à la publication sur Internet, les parties devraient pouvoir disposer d’une fenêtre de tir contrainte pour contester la décision d’occultation ou de non-occultation. Cependant, le décret ne précise rien à cet égard… Après la publication en ligne, le recours est le même pour tout intéressé, qu’il s’agisse d’une partie ou d’un tiers. La demande d’occultation ou de levée d’occultation des éléments d’identification est portée auprès du membre du Conseil d’Etat désigné par le vice-président du Conseil d’Etat ou auprès du membre de la Cour de cassation désigné par le premier président. Leur décision est elle-même susceptible de recours : pour les décisions de l’ordre administratif, il s’agit de « recours de plein contentieux » ; pour les décisions de l’ordre judiciaire d’un « recours devant le premier président de la Cour de cassation dans les deux mois suivant sa notification ».

Garanties et algorithmes : le CNB alerte
Malheureusement, le décret n’apporte aucune précision notamment au regard de mesures provisoires, par exemple la suspension de la publication dans l’attente que soit tranchée la question de l’occultation ou de la non-occultation. Or, nous savons que le temps de communication sur l’Internet n’est pas celui du temps judiciaire, posant là une simple question d’efficacité. Sera-t-il utile de requérir une occultation après que la décision aura été rendue publique et aura circulé sur les réseaux du Net ? Pour ces différentes raisons, le Conseil national des barreaux (CNB) a demandé des garanties en termes d’information des parties, de débat contradictoire et de droit de recours (7). Sur le premier point, le CNB demande que soient précisées les modalités d’information des parties quant à la décision prise concernant l’occultation, pour leur permettre d’initier, le cas échéant, un recours avant la mise en ligne de la décision ou avant la délivrance au tiers, afin de garantir réellement le respect du principe du contradictoire et de leur vie privée. Sur le deuxième point, il demande que les avocats puissent engager une discussion contradictoire sur l’occultation, dès leurs premières écritures et au plus tard, dans leur plaidoirie, pour permettre au juge de rendre une décision éclairée et au plus proche des enjeux du respect de la vie privée et de la sécurité des personnes. Enfin, troisième point, la notification aux parties de la décision d’occultation devrait être faite dans un temps raisonnable pour leur permettre d’initier, le cas échéant, un recours avant la mise en ligne de la décision.
Au-delà de ces garanties qu’il serait souhaitable d’apporter, le cadre juridique de l’open data des décisions judiciaires laisse encore de nombreuses questions sans réponse. L’encadrement du recours aux algorithmes n’est toujours pas d’actualité, ouvrant un large champ d’exploration aux acteurs privés qui s’y sont engouffrés. S’agissant de la justice et donc d’un service public « pas comme les autres », la régulation du marché des algorithmes est une priorité. Le CNB n’a de cesse de rappeler la nécessaire vigilance à avoir quant à l’utilisation qui sera faite des décisions de justice ainsi mises à disposition et la nécessité de garantir la transparence et l’éthique des algorithmes utilisés pour leur exploitation. Dans cet objectif, l’institution représentative des avocats formule une proposition de constitution ou de désignation d’une instance publique chargée de la régulation et du contrôle des algorithmes utilisés pour l’exploitation de la base de données des décisions de justice ainsi que de la réutilisation des informations qu’elle contient (8). Le CNB souhaite en être membre, aux côtés des plus hautes autorités de l’ordre judiciaire et de l’ordre administratif. Il préconise également que les appels d’offres à destination des acteurs privés incluent systématiquement le rappel de principes éthiques, à l’exemple de ceux proposés par le Conseil de l’Europe (9) via sa Commission européenne pour l’efficacité de la justice (CEPEJ), ou encore des sept principes posés par la Commission européenne pour une « IA de confiance » (10), mais aussi, pourquoi pas, de règles co-construites au sein de l’institution à créer ou à désigner. Les prérequis pour la conception des algorithmes pourraient s’inspirer des règles ethic by design ou legal by design.
La question de l’accès aux données intègres pour les avocats n’est pas non plus traitée. En effet, le décret du 29 juin 2020 est muet sur les autorisations d’accès au flux intègres. Les magistrats auront-ils accès aux décisions intègres – c’est-àdire non anonymisées et non occultées – ou auront-ils accès aux décisions anonymisées et occultées ? Dans le premier cas, l’accès différencié pour les magistrats et les avocats conduirait à une inégalité inacceptable. L’avocat, auxiliaire de justice (11), ne peut pas être assimilé au « public » visé par la loi du 29 mars 2019. A ce titre, l’institution représentative des avocats a tenu à rappeler, dans sa résolution du 14 décembre 2019, que « les avocats doivent, à l’instar des magistrats du siège comme du parquet, aussi auxiliaires de justice, avoir accès aux décisions intègres, sans anonymisation ni occultation des éléments indirectement identifiants, au nom de l’égalité des armes consacrée par l’article 6 de la Convention européenne des droits de l’homme ». La seule alternative acceptable serait que nous ayons, avocats et magistrats, accès à l’open data des décisions judiciaires, dans les mêmes conditions.

Groupe de travail « Réutilisation des données »
Le décret du 29 juin 2020 devrait être complété par d’autres textes (arrêtés, circulaires, …). La Chancellerie a annoncé la mise en place d’un groupe de travail dédié à la problématique de la réutilisation des données issues des décisions de justice. La première réunion sur ce thème, organisée par le ministère de la Justice, doit se tenir au cours cette rentrée. En espérant que le Conseil national des barreaux pourra apporter sa pierre à cet édifice qui modifie en profondeur la justice. @

* Christiane Féral-Schuhl, présidente du Conseil
national des barreaux (CNB), est ancien
bâtonnier du Barreau de Paris, et auteure de
« Cyberdroit », paru aux éditions Dalloz.

Contenus haineux, terroristes et violents sur le Net : lutter mondialement sans oublier le juge national

Les avocats de France – via le Conseil national des barreaux (CNB) – appellent à concilier lutte contre la haine et respect des droits fondamentaux. Et ce, au niveau international mais en gardant le juge au centre du dispositif. Il faut aussi former les magistrats et créer un parquet national numérique.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

15 mars 2019 : une attaque terroriste en Nouvelle-Zélande contre deux mosquées dans la petite ville de Christchurch (au sud de l’île) était filmée et diffusée en direct sur les réseaux sociaux. En réponse à cet acte inqualifiable de retransmettre en live sur Internet (1) ce massacre innommable en luimême, la volonté de réguler le contenu des réseaux sociaux afin de prévenir et d’empêcher une diffusion des discours de haines relève désormais d’une dynamique internationale.

Régulation mondiale du Net sans précédent
Dans le prolongement de la proposition de loi visant à lutter contre la haine sur Internet,
qui fut déposée le 20 mars dernier à l’Assemblée nationale à l’initiative du gouvernement et qui a été débattue les 3 et 4 juillet en séances publiques en première lecture avant un vote des députés prévu le 9 juillet (2), le président de la République Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern ont lancé, le 15 mai, l’appel de Christchurch. Il vise à prévenir la diffusion de contenus terroristes et extrémistes violents sur Internet, dans une démarche inclusive, participative et respectueuse des droits fondamentaux – en impliquant gouvernements, plateformes en ligne et représentants de la société civile. Il s’agit de la première initiative internationale visant à réguler les contenus sur Internet en dépassant le cadre législatif strictement national et en engageant un dialogue constructif entre les différents acteurs. Dans ce contexte, le Conseil national des barreaux (CNB) – établissement d’utilité publique fondé en 1990 pour représenter l’ensemble des avocats inscrits à un barreau français – a été invité à participer à la réflexion visant à rendre les engagements de cet appel effectif et sa mise oeuvre conciliable avec les libertés fondamentales.
• Les dispositions de l’appel de Christchurch
L’appel de Christchurch (3) invite de manière volontaire, par plusieurs séries d’engagements, les fournisseurs de services en ligne et les gouvernements à lutter contre les contenus terroristes ou extrémistes violents et garantir un Internet libre, ouvert et sûr, respectueux des droits de l’Homme. Cet appel, adopté sur la base du volontariat, fait écho aux dispositions de la proposition de la loi française visant à lutter contre la haine sur Internet. Ainsi, parmi les dispositions les plus innovantes, l’appel propose, notamment, aux fournisseurs de services d’améliorer la transparence des conditions générales d’utilisation des plateformes, de mettre en oeuvre ces conditions d’utilisation en prenant en compte les droits de l’homme et les libertés fondamentales (et notamment de prioriser la modération des contenus terroristes, fermer les comptes lorsque c’est nécessaire et prévoir un système de contestation transparent). L’appel de Christchurch propose aussi de prendre en compte le risque de diffusion de contenus haineux ou terroristes via les « live stream », d’améliorer les mécanismes de signalement des contenus, d’évaluer les algorithmes de manière à éviter qu’ils dirigent les utilisateurs des réseaux vers des contenus terroristes, ou encore de mettre en place des conditions générales d’utilisation transparentes et exhaustives et avertissant sur les conséquences de la diffusion d’un tel contenu.
Les gouvernements et les fournisseurs de services en ligne s’engagent parallèlement à plus et mieux coopérer d’un point de vue technologique, scientifique et juridique pour atteindre ces résultats, tout en respectant un cadre légal et les droits fondamentaux des utilisateurs.
• Les propositions du CNB
La lutte contre la haine et les contenus terroristes et extrémistes est un sujet mondial et l’affaire de tous. Les avocats, en tant que citoyens, sont concernés par la prolifération de la haine sur Internet. Toutes les mesures visant à lutter contre l’expression de la haine sur les réseaux sociaux et sur Internet doivent entrer dans un cadre légal et respecter les libertés publiques, y compris la liberté d’expression.

Réfléchir à la mise en oeuvre de l’appel
Dans la continuité de ses travaux engagés au niveau national, le CNB a participé à une réunion internationale d’experts issus du monde universitaires, d’organisations gouvernementales et internationales, d’associations et de juristes pour réfléchir à la mise en oeuvre de cet appel. Lors de cette consultation, le Conseil national des barreaux a salué cette initiative visant à lutter contre la diffusion de contenus terroristes. Comme l’affirme justement l’appel, « La diffusion de ce type de contenu sur Internet a des effets délétères sur les droits des victimes, sur notre sécurité collective et sur les populations du monde entier ». L’échelle internationale est tout à fait pertinente et seule une dynamique inclusive permettant d’engager un dialogue entre toutes les parties prenantes peut permettre d’agir utilement.

Dans le respect des droits des utilisateurs
Par ailleurs, le CNB a formulé plusieurs propositions pour faire en sorte que la mise en oeuvre de l’appel de Christchurch soit conciliable avec le respect des droits des utilisateurs et la bonne administration de la justice. A cet égard, l’un des moyens les plus efficaces de lutter contre les contenus haineux est la simplification des mécanismes de signalement et, notamment, l’harmonisation des formulaires de signalement et la mise en place d’un bouton unique de signalement d’un contenu haineux ou terroriste. Ces simplifications techniques, présentes dans l’article 2 de la proposition de loi française (notamment « un dispositif de notification directement accessible et uniforme permettant à toute personne de notifier un contenu illicite dans la langue d’utilisation du service »), sont un moyen efficace d’assurer une plus grande transparence et une meilleure information des utilisateurs des services.
De la même manière, la mise en place de procédures de contestation en cas de retrait de contenus (« un dispositif permettant à l’utilisateur à l’origine de la publication du contenu retiré, rendu inaccessible ou déréférencé de contester cette décision ») est primordiale pour assurer l’information des utilisateurs sur leurs droits et leurs devoirs. Toutefois, et dans le prolongement des réserves qui ont été exprimées par le CNB le 19 mai dernier (4) à la suite de la publication de la proposition de loi visant à lutter contre la haine sur Internet (voir encadré ci-dessous), la principale préoccupation de la profession d’avocat est de préserver le rôle de l’Etat en matière de justice. Et ce, en assurant des moyens suffisants permettant de poursuivre systématiquement et dans des délais raisonnables les utilisateurs diffusant des contenus manifestement illicites. Ces moyens pourraient permettre d’améliorer la formation des magistrats et de créer un parquet national numérique (5) afin de mieux articuler retrait des contenus et poursuites pénales. Les dispositifs envisagés actuellement sont centrés sur l’autorégulation des plateformes en ligne. L’obligation des plateformes à retirer les contenus manifestement illicites dans des délais extrêmement contraints sous peine de sanctions financières élevées, voire disproportionnées, risquent d’aboutir au contournement des mécanismes judiciaires adéquats en généralisant l’autocensure préventive des fournisseurs de services en ligne, au détriment de la liberté d’expression.
Or, il est fondamental qu’un équilibre soit respecté entre régulation, autorégulation et mécanismes judiciaires, ces derniers étant les seuls à même de sauvegarder l’équilibre entre l’interdiction des contenus illicites et la liberté d’expression des utilisateurs des plateformes. Dans cette architecture en construction, le rôle du juge et l’existence d’un recours juridictionnel effectif doivent rester centraux pour décider de ce qui est illégal ou non. De la même manière, la généralisation des algorithmes pour le contrôle des contenus constitue un moyen efficace de vérification mais soulève la question de leur transparence et de leur accès par les juges et les avocats en cas de contestation du retrait d’un contenu. Ces offensives à l’échelle nationale et internationale contre les contenus terroristes, extrémistes violents et haineux traduisent un besoin de régulation des contenus sur Internet et il appartient à nos sociétés de faire preuve d’imagination pour préserver l’équilibre fragile entre régulation et sauvegarde des droits fondamentaux. @

* Christiane Féral-Schuhl, présidente du Conseil national
des barreaux (CNB), est ancien bâtonnier du Barreau de
Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

ZOOM

La proposition de loi « Avia » renforcée à l’Assemblée nationale ne plaît pas du tout aux acteurs du Net
Lors de son examen en commission des lois à l’Assemblée nationale, le 19 juin dernier, la proposition de loi visant à lutter contre la haine sur Internet – appelée aussi « loi Avia », du nom de la rapporteure du texte, la députée Laetitia Avia (6) – a été renforcée. La portée de la loi a été étendue à la provocation au terrorisme ou à son apologie, ainsi qu’à l’apologie de crimes de guerre ou de crimes contre l’humanité, au harcèlement, au proxénétisme ou encore à la pornographique d’un mineur, voire aux contenus portant atteinte à la dignité de la personne humaine ou incitant à la violence ou à la discrimination, ou encore ceux s’en prenant à la nationalité ou à l’origine. Et ce, en plus de l’incitation à la haine ou de l’injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, déjà prévu le projet initial.
Dans tous ces cas, l’obligation de retrait en 24 heures s’appliquera aux fournisseurs de services en ligne mais aussi, à la demande de Laetitia Avia, aux moteurs de recherche. D’autres dispositions (7) ont aussi durci le texte, y compris une sanction d’un an d’emprisonnement et 15.000 euros d’amende en cas de signalements abusifs par les utilisateurs de plateforme en ligne. Le 1er juillet, trois organisations professionnelles – Syntec Numérique, Tech in France et l’Asic (8) – ont alerté ensemble sur « le risque d’inefficacité du nouveau texte » et « le risque de compromettre son application ». Quant à La Quadrature du Net, association de défense des droits des internautes, elle dénonce aussi les risques sur la liberté de communication et le danger de l’instrumentalisation par le pouvoir politique. « Le délai de 24h pour retirer les contenus est si court qu[e] les plateformes n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs utilisateurs jugés les plus fiables ». @