Les universitaires du Stigler Center signent un rapport accablant sur les plateformes numériques

Google, Facebook, Amazon, Apple, Microsoft, … Les plateformes digitales sont passées au crible par des universitaires du centre Stigler. Conclusion : les GAFA sont devenus tellement incontournables qu’il faut ouvrir leurs infrastructures et données aux nouveaux entrants. Réguler s’impose.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Réunis au sein du prestigieux Stigler Center de l’université de Chicago, une trentaine d’universitaires (1) dénoncent la puissance des grandes plateformes numériques. Leur rapport intitulé « Stigler Committee on Digital Platforms » (2) compare les GAFA aux lobbies du passé (tabac, pétrole, finance, télécoms), et plaide pour une régulation, notamment pour éviter les effets d’addiction. On ne s’attendait pas à des accusations aussi virulentes venant de l’université de Chicago Business School, réputée pour ses positions anti-régulation.

Digital Platforms et « kill zones »
Le rapport « Stigler » met en exergue la difficulté pour un nouvel entrant de pénétrer un quelconque marché numérique qui concernerait l’une des grandes plateformes déjà en place. D’une part, les plateformes sont souvent des intermédiaires indispensables pour permettre à un nouvel entrant d’accéder au public, via les magasins d’application et les systèmes d’exploitation mobile. Or, cette position privilégiée permet aux plateformes numériques d’observer la progression du nouvel entrant et d’ajuster leur stratégie en conséquence (3). D’autre part, les plateformes ont tendance à racheter tout nouvel entrant qui présenterait un risque potentiel. Le rapport évoque une baisse d’investissement en capital-risque pour toute activité touchant aux domaines des « Digital Platforms » (l’acronyme GAFA n’est jamais utilisé par les auteurs). Les fonds de capital-risque considèrent ces activités hors limites (« kill zones »), où le taux de mortalité des nouveaux entrants est trop élevé pour investir. Pour remédier à ces problèmes, le rapport « Stigler » préconise un régime d’interopérabilité et d’interconnexion similaire à ce qui existe en télécommunications, et plus récemment en services de paiement, via la directive européenne « DSP2 ». Ainsi, un nouvel entrant pourrait s’appuyer en partie sur les infrastructures et données des plateformes pour proposer un nouveau service, sans que les plateformes puissent objecter, ni appliquer des redevances excessives. Sans aller jusqu’au démantèlement des GAFA, le rapport propose la création d’une autorité de régulation numérique spécialisée, à l’image de la FCC (le régulateur fédéral américain des télécoms), qui pourrait imposer des remèdes spécifiques en cas de refus d’interopérabilité. Pour empêcher les plateformes de racheter tout concurrent potentiel, les experts du Stigler Center préconisent un régime d’autorisation quasi systématique pour les opérations de concentration menées par les grandes plateformes. Actuellement, beaucoup d’opérations de fusion-acquisition tombent en dessous des seuils de notification. Les experts proposent d’abaisser ces seuils, afin que la quasi-totalité des opérations de fusions et acquisitions de grandes plateformes soient examinées.
Le rapport souligne que les services gratuits ne sont jamais gratuits, mais sont plutôt rémunérés en nature par les données fournies par les utilisateurs. Les plateformes se rémunèrent par ailleurs sur l’autre côté de leur marché biface, en appliquant des tarifs élevés d’intermédiation en matière de publicité (4). Selon le rapport, les autorités de concurrence doivent tenir compte de la qualité du service comme un élément du prix : une baisse dans la qualité du service – par exemple des conditions générales déséquilibrées, ou une faible protection des données personnelles – équivaut à une augmentation du prix pour l’utilisateur, signe d’un pouvoir sur le marché. Pour souligner la grande valeur des données générées par les utilisateurs, le rapport « Stigler » cite l’exemple de moteurs de recherche concurrents à Google qui proposent une forme de compensation aux internautes en échange de l’utilisation de leurs données, par exemple la plantation d’arbres pour lutter contre la déforestation (Ecosia) ou un programme de points de fidélité (Bing). Malgré ces incitations, la position de Google sur le marché des moteurs de recherche semble inébranlable.

Monopoles naturels et risque d’addiction
Le rapport n’exclut pas que certaines activités – par exemple, l’activité de moteur de recherche – puissent constituer des monopoles naturels, à savoir des activités pour lesquelles il serait normal et efficace de n’avoir qu’un seul opérateur. Mais dans ce cas, la régulation s’impose. Le rapport évoque l’idée d’imposer des obligations renforcées de loyauté et de transparence (fiduciary duty). Selon les sages du centre Stigler, un autre danger vient de la manipulation des usagers et de l’addiction : « Ajouter un phénomène d’addiction à une situation monopole et vous avez probablement la pire combinaison imaginable », selon eux (5). Ils demandent à ce que les phénomènes d’addiction soient étudiés à part entière, et que les plateformes ouvrent leurs données afin de faciliter ces recherches. Le rapport montre en outre que le journalisme est une victime collatérale des GAFA. La baisse de recettes publicitaires conduit à la quasi-disparition de la presse locale et régionale aux Etats-Unis. Les auteurs du rapport soulignent que la disparition de la presse locale n’est pas critiquable en soit, car de nombreuses industries disparaissent à cause de bouleversements technologiques – la « destruction créatrice » est un phénomène normal, notent les sages.

Presse : menaces sur le journalisme
Le problème réside plutôt dans l’absence d’alternatifs pour remplir le vide laissé par la presse locale, une presse qui contribue à la transparence de la politique locale et encourage l’engagement politique des citoyens. Or, les grandes plateformes ont peu d’incitations à promouvoir un journalisme d’investigation au niveau local, ni même à limiter la désinformation sur leurs réseaux. Les incitations vont plutôt dans le sens opposé, les algorithmes cherchant à maximiser l’engagement individuel de l’utilisateurs, une maximisation qui passe par la recommandation de contenus correspondant à la « bulle d’information » de l’utilisateur, et à la proposition de contenus accrocheurs voire choquants. L’absence de responsabilité des plateformes (6) crée une distorsion par rapport à la presse traditionnelle, selon les experts du Stigler Center. Ils proposent d’abolir cette protection lorsque les plateformes poussent des contenus vers l’utilisateur et bénéficient de recettes publicitaires. En ce qui concerne la protection du journalisme local, le groupe d’experts préconise l’expérimentation de différentes approches réglementaires au niveau local (7).
En matière de protection des données à caractère personnel cette fois, les auteurs du rapport « Stigler » constatent la futilité de s’appuyer sur un régime de consentement libre et éclairé. Les plateformes comprennent les faiblesses humaines et les biais en tout genre. L’une des propositions du rapport est d’imposer aux plateformes des paramètres par défaut qui correspondraient à ce que souhaiterait une majorité des utilisateurs. Un régulateur ou autre organisme indépendant conduirait des études scientifiques pour déterminer ce que souhaite la majorité des utilisateurs , et les entreprises seraient tenues d’appliquer ces préférences par défaut. Ces préconisations rejoignent l’approche européenne, à ceci près que le niveau minimum de protection serait fixé en fonction des attentes de la majorité des internautes, mesurées par des chercheurs indépendants. Le rapport souligne l’impact très positif des plateformes sur la liberté d’expression. Mais, en même temps, il s’inquiète du pouvoir sans précédent des plateformes sur le plan politique. Ses auteurs estiment que les sociétés Google et Facebook cumulent le pouvoir politique réuni d’ExxonMobil, du New York Times, de JPMorgan Chase, de la NRA (National Rifle Association) et de Boeing. De plus, cette puissance se concentre entre les mains de seulement trois individus, Mark Zuckerberg, Sergey Brin et Larry Page : « Trois personnes disposent d’un contrôle absolu sur les flux d’informations personnalisées et obscures de milliards d’individus » (8) s’inquiètent les sages. Le rapport préconise des obligations de transparence accrues, notamment sur les financements des campagnes politiques, ainsi que par rapport à toute pratique « non-neutre » à l’égard des messages politiques. Cette étude du Stigler Center est riche, bien étayée, mais surprenante par son agressivité à l’égard les GAFA, une agressivité que l’on trouve plus habituellement dans la bouche de personnages politiques, tels que la candidate démocrate à la présidence Elizabeth Warren. Surtout, les auteurs du rapport semblent oublier qu’il y a seulement quelques années, le monde académique était très divisé sur le pouvoir des GAFA et le rôle de la régulation. Une partie importante des universitaires restait prudente sur l’idée de réguler les plateformes numériques, estimant que la régulation était un outil trop rigide pour un marché en forte évolution technologique, et que le meilleur remède contre le pouvoir des plateformes était l’innovation technologique (9). Il est regrettable que le nouveau rapport n’ait pas examiné ces arguments, ne serait-ce que pour expliquer pourquoi les circonstances ont changé. @

* Winston Maxwell, ancien avocat associé du cabinet Hogan
Lovells, est depuis juin 2019 directeur d’études, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.

FOCUS

Neutralité de l’Internet : champ libre à la Californie pour légiférer
Peu après l’élection de Donald Trump, la FCC a annulé la plupart des dispositions qu’elle avait prises en matière de neutralité de l’Internet pour revenir à une position plus libérale. Ce revirement du régulateur fédéral américain des télécoms a été attaqué en justice par les défendeurs de la neutralité, dont la fondation Mozilla. Dans sa décision du 1er octobre 2019 (10), la cour d’appel a conclu que la FCC était en droit de changer sa position, puisque le texte de la loi fédérale sur les télécommunications est ambigu sur la régulation de l’Internet, et la FCC a de nouveaux arguments crédibles pour fonder son changement de position. Saluée par Donald Trump comme une victoire, la décision de la cour d’appel est en réalité un cadeau empoisonné pour la FCC, car la cour laisse le champ libre aux Etats fédérés pour adopter leurs propres lois sur la neutralité. Selon la cour, la FCC ne peut pas à la fois dire que l’Internet ne tombe pas dans son domaine de régulation, et en même temps empêcher les Etats américains de légiférer. Du coup, la Californie, qui a adopté un texte sur la neutralité du Net en 2018, se retrouve confortée dans sa législation. Comme en matière de protection des données à caractère personnel, la loi californienne deviendra peut-être la nouvelle norme nationale, à moins que la décision de la cour d’appel du 1er octobre ne soit annulée par la Cour suprême des Etats-Unis. @

Aux pouvoirs élargis à la distribution de la presse, l’« Arcep-dp » devient (trop ?) super-régulateur

La loi modernisant la distribution de la presse a été publiée au Journal Officiel le 19 octobre 2019 : 70 ans après la loi « Bichet », la diffusion de la presse française va s’ouvrir à la concurrence (en 2023) et prend en compte le numérique. L’« Arcep-dp » sera-t-elle à la hauteur et indépendante ?

Par Etienne Drouard et Anaïs Ligot, Avocats, K&L Gates

Comme de nombreux autres secteurs, celui de la distribution de la presse a été bouleversé par le numérique et l’évolution des pratiques des lecteurs. Dans le contexte de l’après-guerre, la loi dite « Bichet» (1) du 2 avril 1947 sur le statut de la presse a permis d’organiser les grands principes de la presse, parmi lesquels la pluralité de l’information, l’égalité des éditeurs et la solidarité coopérative entre les acteurs du secteur.

Un ancien régime en crise aiguë
Le respect de ces principes était contrôlé par deux organismes de régulation : le Conseil supérieur des messageries de presse (CSMP), principalement composé d’éditeurs de presse, mais également d’acteurs de la distribution, dont le rôle se bornait à organiser le réseau de distribution de la presse; l’Autorité de régulation de la distribution de la presse (ARDP), autorité administrative indépendante composée de membres administratifs (issus du Conseil d’Etat, de la Cour de cassation, de l’Autorité de la concurrence et de la Cour des comptes), qui rendait exécutoires les décisions de la CSMP.
Cependant, l’encadrement de la distribution de la presse et le rôle de ces deux organes de régulation (l’un réunissant les acteurs, l’autre disposant d’un pouvoir normatif) n’ont pas permis de répondre aux difficultés propres à ce secteur, notamment : les crises financières répétées de la société Presstalis (ex-NMPP), principale messagerie de presse (dont le rôle est de conclure les contrats de distribution avec les éditeurs puis de distribuer les journaux jusqu’aux dépositaires de presse) ; les problématiques de conflits d’intérêts engendrées par le statut coopératif du secteur ; le manque de moyens octroyés aux autorités de régulation, notamment à l’ARDP qui ne dispose d’aucun service permanent ; l’absence de pouvoirs de sanction de l’ARDP et du CSMP à l’égard des acteurs du secteur, les rendant ainsi régulièrement impuissantes pour faire appliquer leurs décisions. L’arrivée des nouvelles technologies a porté le coup final à la distribution de la presse. En effet, de nouvelles problématiques inexistantes en 1947 ont été relevées ces dix dernières années (enjeux de référencement, transparence, pluralité, etc.) et de nouveaux enjeux sont apparus, parmi lesquels le besoin d’assurer une meilleure diffusion numérique des titres de presse. Aux fins de moderniser le secteur de la distribution de la presse, le ministre de la Culture Franck Riester a présenté au Parlement le 10 avril 2019 le projet de loi relatif à la modernisation de la distribution de la presse. Le texte vise à adapter la loi Bichet aux nouveaux enjeux du secteur de la distribution de presse, et notamment au numérique. Bénéficiant de la procédure accélérée, le projet de loi a fait l’objet d’une lecture au sein de chaque chambre du Parlement puis a abouti à un accord le 24 septembre 2019 devant la commission mixte paritaire (CMP) qui a été adopté le 8 octobre 2019. La loi « Garcia-Laugier », du nom de ses deux rapporteurs, a finalement été publiée le 19 octobre 2019 au Journal Officiel (2). En particulier, la nouvelle loi a pour objectifs la mise en place d’un modèle de distribution plus efficace tout en garantissant le pluralisme de la presse en France.
Il étend également aux kiosques et agrégateurs numériques les principes fondamentaux de la loi Bichet. Enfin, elle vise à confier la régulation du secteur à une autorité indépendante afin de limiter les dysfonctionnements observés par le passé. Initialement, le rapport « Schwartz-Terraillot » (3) de juin 2018 proposait une alternative : soit de créer une nouvelle autorité administrative de régulation, indépendante du secteur, qui aurait absorbé les missions de l’ARDP et du CSMP tout en se dotant d’un pouvoir de sanction, soit de confier cette fonction à un autre régulateur existant : au Conseil supérieur de l’audiovisuel (CSA) ou à l’Autorité de régulation des communications électroniques et des postes (Arcep). C’est cette dernière proposition qui a été retenue par le gouvernement et adoptée par les parlementaires.

L’Arcep-dp (!) aux supers pouvoirs
L’Arcep, qui deviendra bientôt l’Autorité de régulation des communications électroniques des postes et de la distribution de la presse (Arcep-dp !), sera désormais en charge de nouvelles missions en lien avec le secteur de la distribution de la presse. Elle succédera ainsi au CSMP et à l’ARDP et bénéficiera en ce sens des pouvoirs actuels de ces autorités, augmentés de nouveaux qui faisaient défaut à ces deux autorités de régulation. Ainsi, l’Arcep-dp bénéficiera d’un pouvoir d’investigation et de sanction à l’encontre des entreprises de presse, des coopératives de groupage de presse, des sociétés de distribution agréés, des kiosques numériques et des agrégateurs de contenus d’information. L’éventail des sanctions s’étend de l’avertissement à la sanction pécuniaire pouvant aller jusqu’à 5% du chiffre d’affaires réalisé en France par les sociétés de distribution.

Multi-compétences et… indépendance ?
Ce pouvoir de sanction, permettra notamment à l’Arcep-dp de veiller au respect des grands principes de la distribution de la presse, à savoir: la continuité territoriale et temporelle de la presse, la neutralité et l’efficacité économique de la distribution groupée de la presse, ainsi qu’une couverture large et équilibrée du réseau des points de vente. Ce sera également ce super-régulateur qui donnera l’agrément aux nouveaux acteurs assurant la distribution de la presse. La loi confie à l’Arcep-dp la proposition d’un cahier des charges établi après consultation des organisations professionnelles représentatives des entreprises de presse et de toute autre personne dont l’avis lui paraît utile. Ce cahier des charges fera ensuite l’objet d’un décret. L’Arcep-dp aura aussi un rôle de législateur puisqu’elle sera consultée sur les projets de loi et actes règlementaires concernant la distribution de la presse et définira les règles pratiques en la matière (4). Enfin, ce régulateur aux compétences étendues bénéficiera d’un pouvoir de jugement et pourra être saisie de certains litiges dans le secteur de la distribution de la presse, notamment en cas de différends entre les acteurs du secteur. L’Arcep-dp pourra également saisir l’Autorité de la concurrence lorsqu’elle aura connaissance de faits susceptibles de contrevenir aux règles de concurrence. Les missions de l’Arcep se sont étendues depuis une dizaine d’année (voir encadré ci-dessous).
Pour quelles raisons le législateur a-t-il eu cette idée, en apparence saugrenue, de confier la régulation de la distribution de la presse à l’Arcep, laquelle n’a pourtant aucune compétence en la matière ? En premier lieu, et contrairement aux autorités de régulation actuelles (CSMP et ARDP), l’Arcep dispose des moyens d’exercer un contrôle efficace de la distribution de la presse. En effet, elle a toujours bénéficié de pouvoirs de sanction (5), d’un pouvoir d’enquête (6) et d’un pouvoir de règlement des différends (7). Son président a également la possibilité de saisir l’Autorité de la concurrence et le procureur de la République. Ces pouvoirs préexistants à la loi sur la modernisation de la presse, ne sont plus à réinventer. Ils doivent simplement être étendus au domaine de la distribution la presse. En second lieu, l’Arcep, qui est notamment l’autorité experte du domaine postal, a déjà la charge de fixer certaines règles dans le domaine postal (8). Ces compétences « postales » pourront être utiles pour accomplir ses nouvelles missions dans le domaine de la distribution de la presse. C’est surtout son aspect numérique qui a séduit le législateur : l’Arcep est depuis sa création l’autorité chargée des questions liées au numérique. Gendarme des télécoms, elle est très vite devenue celui du numérique. Pour autant, son indépendance et sa compétence en matière de presse appellent au doute. En effet, et c’est là que le bât blesse : comment l’Arcep peut-elle parvenir à exercer en totale indépendance l’ensemble de ses missions, parmi lesquelles les nouvelles ? La question se pose également de son indépendance. Certes, elle est une autorité administrative indépendante. Or, autant l’ARDP n’était composée d’aucun membre issu d’une branche politique, autant l’Arcep est soumise aux décisions politiques. En effet, ses membres sont directement désignés par le pouvoir politique (9). Enfin, la compétence de l’Arcep dans le domaine de la presse suscite des interrogations. Tout d’abord, la loi précise que la composition de l’Arcep ne sera pas modifiée (10). Elle ne verra donc pas le nombre de membres de son collège (sept) augmenter, et ce malgré les nouvelles missions qui lui sont confiées.
Mais surtout, l’Arcep a été retenue en raison de sa compétence en matière numérique. A l’heure de la digitalisation de la plupart des secteurs, tout pourrait se rattacher au domaine du numérique : de l’assurance maladie à l’audiovisuel, en passant par la construction et l’art. Or, devrions-nous transmettre la régulation de l’ensemble de ces domaines à l’Arcep, au prétexte que cette autorité a été capable de gérer la transition des télécoms et des postes au domaine numérique ? Ce n’est pas le choix qui a été fait par le gouvernement dans le projet de loi pour l’audiovisuel qui prévoit de fusionner le CSA et l’Hadopi au sein d’une autorité unique qui serait dénommée l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), qui serait encouragée à coopérer avec … l’Arcep-dp.

L’Autorité de la concurrence affaiblie
A force d’être dotée de nouvelles missions, l’Arcep ne risquet- elle pas un manque de compétence flagrant et de devenir, à terme, le régulateur de l’ensemble des secteurs en quête de modernisation pour faire face aux enjeux du numérique, au détriment de sa qualification et de son expérience sectorielle ? En outre, la tendance des pouvoirs publics à multiplier les régulateurs sectoriels finit par appauvrir la compétence générale de l’Autorité de la concurrence, comme si les principes d’équité et de loyauté – que cette dernière a la charge de faire respecter – devait s’affaiblir face à une logique sectorielle. Gageons que la création d’une Arcom aux côtés d’une Arcep réformée ne favorise pas un conflit de compétences. @

ZOOM

Du héros des télécoms au héros du numérique et de la presse
Créée en 1997, pour accompagner l’ouverture à la concurrence du secteur des communications électroniques. L’Arcep est devenue le régulateur du secteur postal en 2005, puis protecteur de la neutralité de l’Internet en 2015, puis en charge de l’aménagement numérique des territoires fin 2017, et depuis 2018 elle s’occupe de la protection des consommateurs en marge de la réforme du plan national de numérotation, à travers ses délibérations controversées sur les automates d’appel (11). @

Non-respect d’une licence de logiciel par le licencié : manquement contractuel ou contrefaçon ?

Deux affaires récentes ont opposé respectivement Free et Orange à des éditeurs de logiciels, lesquels les accusaient de contrefaçon. Mais le non-respect d’un contrat de licence de logiciel par le détenteur de cette licence de logiciel peut soit relever de la contrefaçon, soit du manquement contractuel.

Par Charles Bouffier, avocat, cabinet August Debouzy

La question de la nature de la responsabilité de toute personne qui souscrit à une licence pour l’utilisation d’un logiciel (le « licencié ») mais qui ne respecte pas les termes du contrat de licence du logiciel a donné lieu ces dernières années à des solutions jurisprudentielles contrastées en droit français (1). Et ce, compte-tenu du principe de non-cumul des responsabilités (2). Cette question délicate se trouve au coeur de deux affaires récentes opposant des opérateurs – respectivement Free Mobile et Orange – à des éditeurs de logiciels.

Affaire « Free » : question préjudicielle
Le 16 octobre 2018, la Cour d’appel de Paris (3) a posé une question préjudicielle à la Cour de justice de l’Union européenne (CJUE) dans le cadre d’une affaire opposant Free Mobile à la société IT Development (4). Les faits sont les suivants : la société IT Development a consenti par contrat à la société Free Mobile une licence sur un logiciel de gestion de déploiement de réseaux mobiles dénommé ClickOnSite. Arguant d’une décompilation non-autorisée et de modifications apportées au code-source de son logiciel en violation du contrat de licence, notamment pour créer des formulaires, la société IT Development a fait procéder à une saisie-contrefaçon dans les locaux d’un sous-traitant de l’opérateur Free Mobile puis a assigné ce dernier en contrefaçon de logiciel. En défense, Free Mobile a opposé que les actes invoqués ne constituent pas une violation de droits de propriété intellectuelle, mais une inexécution contractuelle. Par jugement du 6 janvier 2017, le TGI de Paris a considéré qu’il était reproché à la société Free Mobile « des manquements à ses obligations contractuelles, relevant d’une action en responsabilité contractuelle et non pas des faits délictuels de contrefaçon de logiciel, de sorte que l’action en contrefaçon initiée par la demanderesse est irrecevable » (5). La Cour d’appel de Paris, elle, a accepté de surseoir à statuer et de renvoyer à la CJUE la question préjudicielle suivante : « Le fait pour un licencié de logiciel de ne pas respecter les termes d’un contrat de licence de logiciel (par expiration d’une période d’essai, dépassement du nombre d’utilisateurs autorisés ou d’une autre unité de mesure, comme les processeurs pouvant être utilisés pour faire exécuter les instructions du logiciel, ou par modification du code-source du logiciel lorsque la licence réserve ce droit au titulaire initial) constitue-t-il : une contrefaçon (au sens de la directive 2004/48 du 29 avril 2004 [sur le respect des droits de propriété intellectuelle, dite IPRED, ndlr]) subie par le titulaire du droit d’auteur du logiciel réservé par l’article 4 de la directive 2009/24/CE du 23 avril 2009 concernant la protection juridique des programmes d’ordinateur, ou bien peut-il obéir à un régime juridique distinct, comme le régime de la responsabilité contractuelle de droit commun ». Très attendues, les conclusions de l’avocat général de la CJUE ont été publiées le 12 septembre dernier (6). Après avoir réduit la portée de la question préjudicielle à la seule hypothèse de la modification du code source du logiciel (au motif que les trois autres seraient étrangères aux faits litigieux), l’avocat général suggère à la CJUE d’y répondre de la façon suivante : « Il y a lieu d’interpréter les articles 4 et 5 de la directive (…) concernant la protection juridique des programmes d’ordinateur, pris avec l’article 3 de la directive (…) relative au respect des droits de propriété, en ce sens que :
• La modification du code source d’un programme d’ordinateur, effectuée en violation d’un contrat de licence, constitue une atteinte aux droits de propriété intellectuelle qui appartiennent au titulaire du droit d’auteur sur le programme, à condition que cette modification ne soit pas exonérée d’autorisation conformément à la directive [sur la protection juridique des programmes d’ordinateur].
• Le fondement juridique de l’action que le titulaire des droits d’auteur sur un programme informatique peut exercer contre le titulaire de la licence, pour cause de violation des facultés propres du titulaire des droits, est de nature contractuelle lorsque le contrat de licence réserve ces facultés au titulaire du programme, conformément à l’article 5 paragraphe 1, de la directive [sur la protection juridique des programmes d’ordinateur].

Des facultés réservées au titulaire
• Il appartient au législateur national de déterminer, en respectant les dispositions de la directive [IPRED] et les principes d’équivalence et d’effectivité, les modalités procédurales nécessaires à la protection des droits d’auteur sur le programme d’ordinateur en cas de violation de ces derniers, lorsque cette violation implique simultanément une violation de ces droits et un manquement contractuel. » Ainsi, selon l’avocat général de la CJUE, si le manquement reproché au licencié consiste dans le non-respect d’une clause contractuelle par laquelle le titulaire s’est expressément réservé l’exclusivité de certaines des facultés énumérées dans la directive concernant la protection juridique des programmes d’ordinateur, « la qualification juridique du différend serait uniquement contractuelle » et il n’y aurait alors pas de place pour la contrefaçon. En revanche, la modification du code source d’un programme d’ordinateur effectuée en violation d’un contrat de licence se situe en dehors de la réserve des facultés énumérées dans cette directive. Elle implique une décompilation (afin de reconstituer le code source du logiciel), qui ne figure pas parmi les facultés précitées et qui n’est permise qu’à des fins d’interopérabilité, sous réserve de certaines conditions (8).
Aussi, selon l’avocat général, un tel manquement « pourrait être qualifié, simultanément, de manquement contractuel et de violation du devoir général du respect du droit d’auteur selon les contours définis par la loi […]. Dans ce cas de figure, le principe de non-cumul serait applicable ». Par application de la règle de non-cumul – et sous-réserve de la conformité de cette règle avec le droit de l’Union européenne (en particulier la directive IPRED) ce qu’il appartiendra à la juridiction de renvoi de dire, le fondement de l’action du titulaire serait alors de nature contractuelle.

Parallèle avec l’affaire « Orange »
En attendant l’arrêt de la CJUE sur cette question, un parallèle peut être fait avec une autre affaire récente. Le contentieux impliquant des licences de logiciel libre est suffisamment rare(lire ci-dessous une autre affaire « Free » de 2008) pour que l’on s’attarde sur un jugement du TGI de Paris du 21 juin 2019 rendu dans une affaire opposant l’éditeur de logiciel libre Entr’ouvert aux sociétés Orange et Orange Applications for Business (10). L’opérateur télécoms avait répondu à un appel d’offres de l’Agence pour le gouvernement de l’administration électronique (ADAE) en vue de la conception et de la réalisation d’un portail informatique, en proposant un outil interfacé avec la bibliothèque logicielle Lasso éditée par la société Entr’ouvert sous licence libre GNU GPL version 2. Estimant que la mise à disposition par Orange de cette bibliothèque à son client ne respectait pas les articles 1 et 2 de cette licence libre, la société Entr’ouvert a fait procéder à une saisie-contrefaçon au siège d’Orange puis l’a assigné en contrefaçon de droit d’auteur devant le TGI de Paris. En substance, elle reprochait à l’opérateur télécoms une déclaration d’utilisation de la version 0.6.3 de la licence litigieuse – alors qu’il aurait également employé la version 2.2.90, ainsi que l’indication prétendument trompeuse à l’ADAE de ce que la bibliothèque serait un module autonome.

Non-cumul de responsabilité
Orange et sa filiale Orange Application for Business (cette dernière étant intervenue volontairement à l’instance) soulevaient pour leur part l’irrecevabilité de l’action intentée au motif que le litige relèverait de la responsabilité contractuelle et non pas de la contrefaçon. L’opérateur télécoms a été suivi en cela par le TGI. En effet, après avoir rappelé – à l’instar de l’avocat de la CJUE dans l’affaire « Free » – que « la violation des droits réservés de l’auteur [listés à l’article L.122-6 du code de la propriété intellectuelle] est sanctionnée par la contrefaçon » et que « les modalités particulières d’usage pour permettre l’utilisation du logiciel conformément à sa destination, par [le licencié] sont aménagées, selon l’alinéa 2 de l’article L122-6-1 du code de la propriété intellectuelle, par contrat entre les parties », le TGI a finalement considéré « que la société Entr’ouvert poursuit en réalité la réparation d’un dommage généré par l’inexécution par les sociétés défenderesses d’obligations résultant de la licence et non pas la violation d’une obligation extérieure au contrat de licence ». En application du principe de non-cumul de responsabilité, nous dit le jugement, « seul le fondement de la responsabilité contractuelle est susceptible d’être invoqué par la demanderesse, qui doit donc être déclarée irrecevable en son action en contrefaçon et en ses prétentions accessoires ». L’affaire rebondira peut-être devant la Cour d’appel de Paris… @

ZOOM

Il y a dix ans, Free était déjà accusé de contrefaçon – sur sa Freebox
La licence libre GNU GPL Version 2 (GNU signifiant « GNU’s Not UNIX » et GPL « General Public License ») avait déjà été au cœur il y a dix ans d’une précédente affaire de contrefaçon portée devant le TGI de Paris : l’affaire « Free/ Welte, Andersen et Landley » qui avait défrayé la chronique à l’époque. En 2008, les auteurs de deux logiciels libres (Iptables et BusyBox) avaient assigné Free en contrefaçon de leurs droits d’auteur devant le TGI de Paris. Ils reprochaient à l’opérateur télécoms l’utilisation, dans la Freebox, des deux logiciels litigieux sans permettre l’accès à leurs codes sources, en méconnaissance des termes de cette licence GNU GPL Version 2 (https:// lc.cx/Assign2008). Free s’était alors défendue en expliquant que le terminal n’était pas vendu mais simplement prêté, ce qui l’exonérait — selon son fondateur Xavier Niel — de toute obligation de divulgation dudit code source. Un accord avait finalement été conclu en juillet 2011 entre les parties mettant fin au procès (https:// lc.cx/FSF-Free2011). Cet accord prévoyait notamment le libre accès aux codes sources des logiciels libres utilisés dans les Freebox. Compte-tenu de cette issue amiable, le TGI n’avait pas eu à se prononcer sur la recevabilité de l’action en contrefaçon des demandeurs pour non-respect des termes de la licence GNU GPL Version 2. Huit ans après, l’occasion lui en a été donnée dans le cadre d’une affaire visant cette fois-ci l’opérateur Orange. @

Internet de l’espace : la Commission européenne doit proposer une régulation des satellites

L’Union européenne aura mis environ vingt ans avant de s’emparer de la nécessité de réguler l’Internet en matière fiscale, de protection des données personnelles et de lutte contre le terrorisme. Il reste à espérer qu’elle saura réagir plus promptement pour réguler les satellites en orbite basse.

Par Rémy Fekete, avocat associé, cabinet Jones Day

La FFC (1) – entité américaine en charge de réguler le secteur des télécommunications ainsi que les contenus des émissions de radio, télévision et Internet – a approuvé fin mars dernier le projet Starlink de SpaceX. Le projet Starlink vise à fournir des services mondiaux haut débit par satellite en orbite basse terrestre. L’autorisation d’exploitation valait pour le nombre de 4.225 satellites, auxquels s’ajouteront 7.518 satellites supplémentaires pour lesquels l’autorité de réglementation américaine vient de donner son accord.

Orbite basse : nouvel eldorado télécoms ?
SpaceX n’est pas la seule entreprise à avoir obtenu une telle autorisation ; Kepler Communications, Télésat Canada et LeoSat MA ont elles aussi bénéficiées d’agréments de la FCC pour offrir des services haut débit aux Etats-Unis. Amazon est en embuscade avec la société Kuiper Systems, devancé par le projet OneWeb qui a commencé cette année à déployer ses satellites fabriqués par son partenaire Airbus. La fourniture de services de télécommunications par satellites n’est pas un enjeu nouveau. Les satellites télécoms sont pour la plupart placés en orbite géostationnaire, c’està- dire à 36.000 km d’altitude. Ils se déplacent à la même vitesse que la rotation de la Terre, et sont donc situés en permanence au-dessus d’un même point terrestre.
Si ce positionnement facilite la couverture des zones les plus peuplées du globe, il présente plusieurs inconvénients, comme le temps de latence lié à la distance entre la terre et le satellite et l’encombrement significatif de cette orbite du fait du nombre importants de satellites et de déchets présents à cette altitude. Le développement de nouvelles technologies permet désormais de palier à la principale contrainte des orbites basses en rendant possible le relais entre satellites couvrant successivement la même zone terrestre. L’orbite basse, située à une altitude comprise entre 500 et 1.000 km, comporte plusieurs avantages notables pour les opérateurs. Dans un premier temps, en réduisant la distance du signal et en conséquence la rapidité d’acheminement, elle est plus adaptée aux très haut débit. Réduire ce temps de latence permet une plus grande efficacité en matière de transactions électroniques et d’accès à Internet. Il s’agit donc d’un enjeu de taille en matière commerciale. En plus de permettre une réduction du temps de latence, les satellites en basse orbite émettent des signaux plus facilement captables depuis la Terre, grâce à leur proximité avec celle-ci (2). Reste que l’inconvénient majeur de cette technologie est tout de même celui de la couverture : les satellites placés en basse orbite tournent plus rapidement que la Terre, et ne permettent pas de couvrir en permanence le même secteur. Il est donc nécessaire d’envoyer plusieurs satellites côtes-à-côtes, qui se transfèrent les différents signaux et appels : on parle alors de constellations de satellites. Pour autant, cet inconvénient est largement compensé par la couverture intégrale de la surface de la Terre permise par le mouvement des satellites en basse orbite. Cette couverture permet ainsi de fournir des services de télécommunications dans des zones très enclavées, où il n’est aujourd’hui pas envisageable de fournir des services à haut débit. L’information circulant plus vite dans l’espace que sur Terre, l’envoi de signaux par satellites permet de concurrencer très largement les communications transmises via la fibre optique.
Le positionnement de satellites en orbite basse est rendu possible par l’utilisation principalement de deux bandes : les bandes Ka et Ku. Il s’agit de gammes de fréquences du spectre électromagnétique, permettant l’envoi et la réception de signaux entre la Terre et les satellites. La bande Ka est surtout utilisée pour l’Internet par satellite. L’énergie est mieux concentrée dans cette bande que dans de nombreuses autres, ce qui permet de multiplier la capacité offerte par une bande, tout en permettant une réduction importante des coûts dans la proposition de services. L’offre de services d’Internet par satellites utilisant cette bande se situe dans des prix comparables à ceux proposés via l’ADSL. La bande Ku, elle, est utilisée en particulier pour la télévision et la radio. L’utilisation des bandes Ka et Ku est répandue en Europe et présente l’avantage, notamment en droit de l’urbanisme, de ne pas nécessiter de paraboles de grande taille.

Pionniers : Skybridge, Celestri, Teledesic
Les projets de constellations de satellites en orbite basse ont déjà fait l’objet d’un cycle significatif au cours des années 1990-2000. Les principaux projets Skybridge pour Alcatel, Celestri pour Motorola ou Teledesic pour Bill Gates n’avaient cependant pas pleinement abouti. L’offre satellitaire en orbite basse des années 1990 tablait, déjà, sur une promesse de connectivité haut débit sur l’ensemble du globe, avec les services associés déjà envisagés à l’époque comme la télémédecine, l’e-éducation et l’e-administration, … La presque totalité de ces projets ont fait long feu, non seulement du fait de l’assèchement des financements liés à l’éclatement de la bulle Internet, mais sans doute aussi du fait de la généralisation de la téléphonie mobile et la multiplication des accords de roaming, qui, sans investissement en réseau supplémentaire, rendent de fait interopérables les réseaux d’opérateurs de pays différents, sans contrainte technologique pour les consommateurs.

Un défaut de régulation depuis des années
L’explosion des besoins de capacités de transmission à haut ou très haut débit et la généralisation des usages consommateurs en données (en particulier le remplacement progressif de l’écrit par la communication par vidéo) semblent offrir de nouveau un intérêt aux projets satellitaires en orbite basse. Après la multiplication de faillites retentissantes de plusieurs milliards de dollars chacune dans les années 1990, les conditions sont-elles réunies pour un nouvel âge de l’Internet par satellite ou faut-il s’attendre à de nouvelles catastrophes industrielles ? Les risques inhérents à la limite de la régulation internationale applicable à la mise en orbite et l’exploitation de satellites risquent de se voir décuplés s’agissant des constellations en orbite basse. Ces risques comprennent désormais une attention particulière sur les aspects environnementaux, relativement peu contraignants il y a vingt ans. L’Union astronomique internationale – l’International Astronomical Union (IAU) qui fête son centenaire cette année – a notamment publié un communiqué faisant part de son inquiétude vis-à-vis du déploiement de constellations de satellites. Son point de vue est soutenu par l’International Dark-Sky Association (IDA). Il s’avère que la plupart des constellations en orbite basse seraient visibles depuis la Terre. Elles sont susceptibles d’engendrer une pollution lumineuse massive. Au point que l’IAU s’inquiète des effets de ces constellations sur les études astronomiques en cours et sur la vie des espèces nocturnes. Bill Keel, astronome à l’Université de l’Alabama constate que « dans moins de 20 ans, les gens verront plus de satellites que d’étoiles à l’oeil nu pendant une bonne partie de la nuit ». Le défaut de régulation internationale reste également préoccupant sur le sujet, pourtant ancien, de la gestion des débris spatiaux et de la fin de vie des satellites. Le phénomène, pour l’instant surtout concentré sur l’orbite géostationnaire, pourrait être multiplié du fait de la mise en orbite de satellites sur les différentes orbites basses. Les millions de débris spatiaux déjà en orbite, à une vitesse allant jusqu’à 28.000 km/h, constituent des dangers significatifs tant pour les autres satellites que pour la navigation spatiale et même la vie des astronautes. Si Elon Musk, milliardaire américain fondateur de la société SpaceX, assure que les mesures nécessaires seront prises pour éviter ces collisions, et que la probabilité qu’elles aient réellement lieu demeure faible, il reste qu’un dispositif de droit international contraignant serait le bienvenu pour selon les cas : imposer le « désorbitage » des satellites en fin de vie, assurer la tenue plus rigoureuse d’un inventaire des débris spatiaux (voir encadré ci-dessous), préciser les règles de responsabilité applicables en cas de collision. Il est vrai que le nombre de satellites de défense, dont les caractéristiques et la localisation sont confidentiels, ne facilite pas cette évolution du droit international. Au-delà des inquiétudes de la Commission européenne (3), les textes européens de droit positif manquent encore. Certes l’Union internationale des télécommunications (UIT) exerce son imperium sur la gestion des orbites spatiales et la coordination internationale des bandes de fréquences satellitaires (4), mais la gestion du trafic spatial demeure en grande partie régie, de fait, par la FCC. Les nouveaux projets de constellations de satellites en orbite basse rendent également d’actualité le besoin d’avancée des travaux du Comité pour les usages pacifiques de l’atmosphère extra-atmosphérique de l’ONU (5). L’action de l’Union européenne (UE) dans l’espace est plutôt récente. La plupart des initiatives prises au niveau intergouvernemental ont été prises dans le cadre de l’Agence spatiale européenne (6). Certains Etats se sont également emparés du sujet, comme la France, mais à l’échelon national. Dans le cadre du prochain cadre financier pluriannuel 2021- 2027, l’UE cherche à mettre en place un règlement sur la politique spatiale européenne. Elle aura mis environ vingt ans avant de s’emparer de la nécessité de réguler l’Internet en matière fiscale, de protection des données personnelles et de lutte contre le terrorisme. Il reste à espérer qu’elle saura réagir plus promptement pour trouver le savant équilibre qui permettra l’avènement de champions européens dans la construction, le lancement et l’exploitation de satellites en orbite basse, tout en préservant les impératifs environnementaux et le règlement pacifique des conflits entre appareils en orbite. @

FOCUS

Débris spatiaux : l’Europe budgète 500 millions d’euros
Sur les 16 milliards d’euros du prochain budget 2021-2027 que l’Union européenne veut consacrer « au maintien et au renforcement du leadership de l’UE dans le domaine de l’espace » (7), la Commission européenne a proposé en juin 2018 de consacrer 500millions d’euros pour améliorer les performances et l’autonomie de la « surveillance de l’espace » — ou SSA (Space Situational Awareness). Objectif : éviter les collisions dans l’espace et de permettre de surveiller la rentrée d’objets spatiaux dans l’atmosphère terrestre. Les déchets de l’espace ou débris spatiaux en orbite autour de la Terre faisant plus de 1 cm sont estimés à 780.000, ceux supérieurs à 10 cm 34.000 en janvier 2019. @

Décisions de justice à l’heure du RGPD : délicat équilibre entre liberté de la presse et vie privée

Jusqu’à maintenant, la jurisprudence favorise habituellement – mais pas toujours –
le droit à l’information en cas de différends sur la publication de données issues de comptes-rendus de procès ou de décisions de justice. Depuis l’entrée en vigueur du RGPD, la recherche d’un juste équilibre s’impose.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Entré en vigueur en mai 2018, le Règlement général sur la protection des données (RGPD) s’applique aussi aux comptesrendus de procès ou de décisions de justice citant des personnes physiques parties ou témoins aux procès. Le RGPD confie aux Etats membres de l’Union européenne le soin de concilier « […] par la loi, le droit à la protection des données à caractère personnel au titre du présent règlement et le droit à la liberté d’expression et d’information, y compris le traitement à des fins journalistiques et à des fins d’expression universitaire, artistique ou littéraire » (1).

Jurisprudence et droit à l’information
De même, le RGPD prévoit des règles similaires pour le « traitement et l’accès du public aux documents officiels » (2) afin de concilier les intérêts liés à la communication au public des documents administratifs et la protection des données à caractère personnel. Cela changera-t-il la jurisprudence qui jusqu’alors favorise habituellement – mais pas toujours – le droit à l’information ? Six mois après l’entrée en vigueur du RGPD, un arrêt de la cour d’appel de Paris daté du 28 novembre 2018 a confirmé une décision du président du tribunal de grande instance de Paris disant qu’il n’y avait pas lieu à référé concernant une demande de déréférencement à l’encontre de Google France de liens pointant vers un article publié sur le site Internet d’un journal – en l’occurrence Le Parisien (3). Les juges ont retenu que « l’information donnée au public sur la mise en cause pénale d’une personne et sa condamnation définitive participe du droit à l’information, particulièrement lorsqu’il s’agit d’infractions pénales sérieuses ». Elle a également relevé que « l’information communiquée quant à la mise en examen (…) ne constitu[ait] pas une atteinte à [la] vie privée s’agissant de la relation de faits publics et particip[ait] du droit du public à être informé ». Les juges, qui procèdent à une analyse de contexte pour apprécier l’intérêt de l’information sur un sujet d’actualité pour le public, en ont conclu que le demandeur « ne justifi[ait] pas de raisons prépondérantes et légitimes prévalant sur le droit d’expression et d’information ».
Toujours après la promulgation du RGPD, mais cette fois huit mois après, la Cour européenne des droits de l’homme (CEDH) s’est prononcée – dans un arrêt du 10 janvier 2019 – sur une décision par laquelle les juges allemands avaient interdit la publication dans la presse d’une photographie représentant une célébrité suisse alors incarcérée. La CEDH a précisé qu’il convenait d’apprécier « la notoriété de [l’intéressé], la contribution de la photo à un débat d’intérêt général, les circonstances dans lesquelles la photo litigieuse a été prise, le comportement antérieur de [l’intéressé] vis-à-vis des médias, la forme, le contenu et les répercussions pour [l’intéressé] de la publication de la photo litigieuse ainsi que la gravité de la sanction prononcée à l’encontre des requérantes ». Elle a notamment considéré en l’espèce que la photo litigieuse « n’avait pas de valeur informative supplémentaire par rapport à celle du texte de l’article », relatant « un fait connu du public depuis longtemps ». Il n’y avait « dès lors aucun motif d’en rendre compte de nouveau ». La CEDH a ainsi considéré qu’elle n’avait « aucune raison sérieuse de substituer son avis à celui des juridictions allemandes ».
Publier ou ne pas publier dans un contexte judiciaire : telle est la question au regard de la vie privée. La Cour de cassation, dans un arrêt du 12 mai 2016, a ainsi rejeté la demande de deux personnes ayant sollicité – sur le fondement de l’article 38 de la loi « Informatique et Libertés », la suppression d’informations identifiantes les concernant sur le moteur de recherche du site Internet d’un journal, en l’occurrence Lesechos.fr (4), qui donnait accès à un article de presse faisant état d’une condamnation prononcée à leur encontre il y a plusieurs années. La Cour a considéré que « le fait d’imposer à un organe de presse […] de supprimer du site Internet dédié à l’archivage de ses articles […] l’information elle-même contenue dans l’un de ces articles […] privant celui-ci de tout intérêt [ou] d’en restreindre l’accès en modifiant le référencement habituel, excède les restrictions qui peuvent être apportées à la liberté de la presse ».

Article en ligne et intimité de la vie privée
La notion d’« actualité » s’apprécie au cas par cas, à l’exemple de cette ordonnance de référé du 8 janvier 2016 (5) : le tribunal de grande instance de Paris a également rejeté la demande de suppression des nom et prénom d’une personne condamnée pour violence aggravée, dans un article paru en 2004 dans le quotidien 20 Minutes et toujours en ligne dix ans après les faits incriminés. Après avoir procédé à une analyse du contexte, le juge a notamment considéré « qu’il n’est donc nullement illégitime, dans ce contexte, pour la société 20 Minutes France, de mentionner l’identité du demandeur ». Donc « que dans ces conditions, il n’apparaît pas, avec l’évidence requise en matière de référé, que (le requérant) puisse se prévaloir d’une quelconque atteinte à l’intimité de sa vie privée ».

Actualité, intérêt légitime et droit à l’oubli
De même, s’agissant d’une demande de déréférencement de plusieurs liens sur Google Images pointant sur des articles faisant état de la condamnation du requérant, le juge a constaté en 2017 que le refus du moteur de recherche était fondé dès lors qu’il s’agissait d’une information exacte sur un sujet d’actualité récent (6). Ce parti pris n’est pas nouveau puisque, dans une affaire concernant la publication dans un journal d’un article relatif au placement en garde à vue d’un individu qui avait bénéficié d’un non-lieu. Ce dernier avait sollicité du directeur de la publication l’insertion d’un droit de réponse. Le journal s’était contenté de mettre à jour l’article. L’individu en cause l’a assigné aux fins de voir supprimer l’article. Les juges ont considéré en 2015 que le traitement des données litigieuses – l’âge, la profession du requérant et le fait qu’il ait été impliqué dans une procédure pénale – répondait à un intérêt légitime « tant en ce que l’information portait sur le fonctionnement de la justice et le traitement des affaires d’atteintes graves aux personnes qu’en ce qu’elle visait une personne exerçant une profession faisant appel au public et encadrant une activité proposée notamment à des enfants », et qu’aucun abus de la liberté de la presse n’était établi (7). C’est le même raisonnement qui conduit des juridictions étrangères à refuser le retrait de résultats affichés sur des moteurs de recherche.
Parfois, les juges considèrent que le droit au déréférencement doit obéir au principe de proportionnalité. Certaines décisions – surtout étrangères – visent à concilier les intérêts de la personne concernée par le traitement de données personnelles avec les intérêts des autres parties en présence, et donc le droit du public à avoir accès à l’information en cause. En quelque sorte, le juge recherche un équilibre entre le droit au respect de la vie privée et aux données à caractère personnel et le droit à la liberté d’expression et à l’information. Deux arrêts américains assez anciens sont également particulièrement éclairants sur ce point. Le premier arrêt rendu par la Cour suprême des Etats- Unis en 1989 concernait un journaliste qui demanda au FBI (9) l’accès aux documents concernant les arrestations, inculpations et condamnations visant quatre individus. Pour le seul survivant des quatre individus ciblés par le journaliste, le FBI refusa de transmettre l’information qu’il détenait sous forme compilée, estimant que la communication porterait atteinte à la vie privée des individus en question. La Cour suprême soutint à l’unanimité cette argumentation (10). Elle rejeta l’argument retenu par la cour d’appel, selon lequel il n’y a plus de Privacy Interest en présence d’informations déjà rendues publiques. Pour la Cour, il y a une importante différence entre une communication « éparpillée » de fragments d’information et la divulgation de l’information dans son ensemble (11). Le second arrêt est issu de la cour d’appel de l’Etat de Californie (12) qui a considéré en 1994 que « c’est la nature agrégée de l’information qui lui donne de la valeur aux yeux du défendeur ; c’est la même qualité qui rend sa diffusion constitutionnellement dangereuse ».
De même, un arrêt de la Cour de cassation belge du 29 avril 2016 retient l’attention. Dans cette affaire, le demandeur, médecin de profession, avait provoqué un grave accident de la circulation ayant entraîné la mort de deux personnes, alors qu’il se trouvait sous l’emprise d’alcool. Ce fait avait été relaté dans l’édition papier du quotidien Le Soir, en 1994. L’article avait été ensuite rendu accessible en ligne non anonymisé. La Cour de cassation a confirmé tout d’abord que la mise en ligne de cet article doit être assimilée à « une nouvelle divulgation du passé judiciaire du défendeur portant atteinte à son droit à l’oubli ». Par ailleurs, elle a relevé que si l’article 10 de la CEDH confère aux organes de presse écrite le droit de mettre en ligne des archives et au public celui d’accéder à ces archives, ces droits ne sont pas absolus et qu’ils doivent, le cas échéant et dans certaines circonstances, céder le pas à d’autres droits également respectables. Aussi, la Haute juridiction a-t-elle considéré que l’arrêt attaqué a justifié léga-lement sa décision en considérant que « le maintien en ligne de l’article litigieux non anonymisé, de très nombreuses années après les faits qu’il relate, est de nature à […] causer un préjudice disproportionné [au médecin] par rapport aux avantages liés au respect strict de la liberté d’expression [de l’éditeur] » (13).

Cas particulier de déréférencement du lien
En France, on relève une ordonnance du tribunal de grande instance de Paris en date du 19 décembre 2014 qui a admis les « raisons prépondérantes et légitimes prévalant sur le droit à l’information » invoquées par la demanderesse (14). Le juge a considéré que la nature des données personnelles, le temps écoulé depuis la condamnation – prononcée huit années auparavant – et l’absence de mention de la condamnation au casier judiciaire de l’intéressée justifiaient le déréférencement du lien renvoyant à un article de 2006. @

* Christiane Féral-Schuhl, présidente du Conseil national des
barreaux (CNB), est ancien bâtonnier du Barreau de Paris, et
auteure de « Cyberdroit », paru aux éditions Dalloz.