Haine sur Internet : la loi Avia veut lutter
contre un fléau sans « privatiser la censure »

Le marathon parlementaire de la future loi « Avia » contre la haine sur Internet n’en finit pas. Rédigé à la va-vite, le texte est controversé. Le délai de retrait de 24 heures – disposition supprimée puis réintégrée (délai ramené à 1 heure dans certains cas) – illustre la valse-hésitation du législateur.

Par Rémy Fekete, avocat associé, cabinet Jones Day

C’était il y a 37 ans… Dans « L’ère du vide » (1), Gilles Lipovetsky s’essayait déjà à analyser jusqu’où l’individualisme emmenait la société contemporaine, à force de tout tourner en dérision, de mettre fin à toute hiérarchie, vers une ère postmoderne. Ce postmodernisme se traduisait selon l’auteur, par une forme d’épuisement des valeurs collectives, de réduction de la violence physique, et globalement une ère de bien-pensance dans laquelle l’engagement laissait place à la tolérance.

Eviter une société schizophrène
Lipovetsky ne pouvait s’imaginer combien la généralisation de l’usage de l’Internet allait décupler cet individualisme, déjà fortifié pendant les années 1980 par les contre-vertus combinées de la crise économique et de l’explosion de la consommation audiovisuelle. De fait, 2019 parait déjà comme une année charnière puisque pour la première fois, le temps passé sur Internet dépasse celui devant les écrans de télévision (2). Récemment, le neuroscientifique Michel Desmurget nous alarmait sur la situation, selon lui presque désespérée, des atteintes portées par la visualisation d’écran pour les enfants et adolescents. Avec plus de 1.000 heures par an devant un écran, les enfants de maternelle entrent dans un processus de « crétinisation » qui ne fait que s’amplifier (3). Le risque présenté par une consommation non contrôlée de l’Internet est exacerbé par la facilité de l’accès à la violence sur le Net.
La haine et la violence s’expriment de multiples manières, telles que le cyberharcèlement, les propos haineux, les images violentes. Ces risques constatés depuis une trentaine d’années (4) ont fait l’objet de multiples dispositifs législatifs et en particulier de la loi du 21 juin 2004 « pour la confiance dans l’économie numérique » – loi dite LCEN. Depuis, de nombreux autres textes sont venus compléter l’édifice législatif français pour prendre en considération à la fois l’instrumentalisation de l’Internet dans le cadre des activités terroristes visant notre territoire, et les enjeux particuliers que présente l’effet démultiplicateur des réseaux sociaux. C’est dans ce cadre, à l’occasion du plan du gouvernement de lutte contre le racisme et l’antisémitisme le 6 mars 2018, que le Premier ministre a confié à la députée Laetitia Avia (5), à l’écrivain Karim Amellal (6) et à Gil Tayeb (7) le soin de réfléchir aux outils à mettre en place pour lutter plus efficacement contre le racisme et l’antisémitisme sur Internet. C’est la deuxième fois, sous le mandat du président de la République et à la demande de l’exécutif, que les députés sont amenés à se pencher sur les limites à la liberté d’expression sur Internet. On se rappellera le fâcheux précèdent de la loi contre « la manipulation de l’information » en période électorale (8), loi dite « Fake news » promulguée le 23 décembre 2018. La proposition de loi « Avia » visant à lutter contre la haine sur Internet (9) tente de rajouter un étage supplémentaire dans le contrôle des propos échangés dans le cyberespace. A juste titre, les auteurs de la proposition de loi s’émeuvent de la libération d’une parole haineuse décomplexée sur la Toile et des effets dévastateurs, en particulier sur les jeunes, des phénomènes de cyberharcèlement. Ils constatent également la relative impunité qui règne en matière de cyberhaine, du fait du peu de plaintes déposées et en conséquence de condamnations prononcées. De fait, les plateformes de réseaux sociaux savent habilement échapper à leurs responsabilités tant par une organisation de leur groupe en forme de nébuleuse internationale qu’en exigeant leur statut juridique de simple hébergeur (que leur assure la directive européenne « E-commerce » de 2000). Il est vrai que si nous ne voulons pas voir notre société devenir schizophrène, les interdits applicables dans l’espace public réel devraient également faire l’objet d’interdits dans le cadre de comportements en ligne. Contrairement aux récrits des héros habituels de la liberté à tous crins, une opinion estimée sur Internet ne relève pas plus de la liberté de conscience qu’un cri poussé dans la rue ou qu’un écrit diffusé dans la presse papier. L’Internet a beau être accessible dans la chambre à coucher, il ne relève pas du for intérieur.

Après l’Allemagne, la France légifère
De fait, les évolutions législatives à travers le monde, y compris en Europe, tendent à instaurer des codes de bonne conduite et une responsabilité croissante des acteurs du numérique. Le 1er octobre 2017, l’Allemagne a adopté la loi « NetzDG » par laquelle la responsabilité des plateformes est renforcée avec l’obligation de mettre en place des procédures de traitement des signalements efficaces et transparentes, et l’exigence de retrait des contenus illicites sous 24 heures sous peine de lourde sanction financière.
En France, la réforme de la justice instaurée par la loi de programmation 2018-2022 et de réforme pour la justice (10) a permis de procéder à des avancées qui sont utiles dans le cadre de la lutte contre les propos haineux sur Internet : dépôt de plainte en ligne, jugement par ordonnance pénale plus rapide, responsabilité des plateformes quel que soit leur lieu d’établissement, …

Régime de responsabilité administrative
La proposition de loi Avia prévoit un nouveau régime de responsabilité administrative applicable aux opérateurs de plateforme à fort trafic, selon un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. L’article 1er du texte, le plus critiqué, notamment au Sénat, prévoit que les opérateurs ont l’obligation de retirer ou de rendre inaccessible dans un délai maximal de 24 heures tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire en raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Le manquement à cette obligation est passible d’une sanction – susceptible d’atteindre 4 % du chiffre annuel mondial de l’opérateur – prononcée par le CSA. Le texte prévoit également, aux termes de son article 2, de faciliter les procédures de notification des contenus illicites par les victimes. Le formalisme procédural qui était prévu initialement par la LCEN de 2004 est considérablement simplifié. Désormais, tous les hébergeurs ont l’obligation de mettre en place un bouton unique de signalement commun à tous les grands opérateurs de plateforme de communication et de simplifier le processus de notification. Le soutien des victimes et des déclarants amène l’article 3 de la proposition de loi à imposer la fourniture par les opérateurs d’une information publique claire et détaillée sur les dispositifs de recours, y compris judiciaire dont disposent les victimes.
Les opérateurs ont également une obligation de transparence en matière de lutte contre les contenus d’incitation à la haine sur Internet (obligation de communiquer le nombre de signalements reçus, la répartition des délits visés, le nombre de signalements abusifs, les moyens humains et financiers engagés, …). Le CSA voit ses compétences élargies à nouveau et il lui reviendra de suivre la lutte engagée contre la haine sur Internet et d’accompagner par ces recommandations les opérateurs de plateforme. L’article 5 impose aux opérateurs de désigner un représentant légal exerçant les fonctions d’interlocuteur référent des autorités sur le territoire français. Cette disposition est en effet essentielle tant les plateformes de réseaux en ligne ont eu jusqu’à présent le loisir de jouer sur la complexité de leur organisation sociale pour éviter de répondre aux autorités administratives judiciaires. Le montant des sanctions applicables a été augmenté de 75.000 à 250.000 euros par infraction. Ce montant reste dérisoire compte-tenu du niveau de revenus des opérateurs, même s’il a vocation à s’appliquer à chacune des infractions, notamment lorsque les représentants des plateformes refusent de coopérer promptement pour lever l’anonymat des auteurs de contenus illicites. Le législateur ayant constaté que les propos racistes sont également diffusés sur des sites web dédiés, il a tenté au sein de l’article 6 de faciliter le blocage et le déréférencement des sites web illicites ainsi que de lutter contre le transfert des contenus litigieux sur des sites miroirs. Il confie le pouvoir à une autorité administrative d’enjoindre le blocage de tels sites miroirs. La proposition de loi Avia prévoit en outre que le gouvernement présente chaque année au Parlement un rapport sur l’exécution de la loi, les moyens consacrés à la lutte contre les contenus licites, y compris en matière d’accompagnement des victimes. Enfin, car la France ne serait plus la France sans mêler à tout texte législatif une disposition fiscale, la proposition crée une taxe additionnelle d’un montant qui reste à définir. Les voies critiques se sont multipliées sur ce texte manifestement rédigé à la va-vite. Conseil national du numérique (11), Conseil d’Etat, Commission européenne (12), … Les avis étaient mitigés ou franchement négatifs, ce qui rend le parcours du combattant parlementaire peu surprenant.
Le Sénat, où certains redoutent une « privatisation de la censure », a finalement adopté le 17 décembre 2019 le texte largement modifié en supprimant notamment le délai de 24 heures prévu par la proposition pour le retrait des contenus illicites. Le texte a été renvoyé en commission mixte paritaire (CMP), qui s’est réunie le 8 janvier 2020 sans parvenir à un accord entre députés et sénateurs. En conséquence, le texte a fait l’objet d’une nouvelle lecture à l’Assemblée nationale les 21 et 22 janvier après avoir été réexaminé le 14 janvier en commission des lois où le délai de 24 heures a été rétabli (13). Ce délai de retrait est assorti d’une amende plafonnée à 1,25million d’euros (14). Le texte a été adopté par les députés, avec l’introduction in extremis par le gouvernement d’un délai de 1 heure seulement pour les contenus terroristes ou pédopornographiques (15). Prochains rendez-vous : le 30 janvier pour une nouvelle lecture au Sénat et le 11 février pour l’adoption définitive du texte à l’Assemblée nationale.

GAFAM, juges de la bien-pensance ?
Espérons que les parlementaires trouveront la voie étroite pour limiter les tombereaux d’ordures qui déferlent sur la Toile, sans donner – ni aux forces étatiques, dont la répression n’est jamais neutre, de nouveaux pouvoirs limitant les libertés publiques, ni au GAFAM, motivés comme jamais par des sanctions pécuniaires significatives – le pouvoir de s’ériger en nouveaux juges de la bien-pensance universelle. Le risque, à défaut, serait de donner une nouvelle dimension à cet « Empire du bien » fustigé par Philippe Murray, qui y voyait avec raison le règne d’une « tolérance hygiénique » sans savoir combien l’Internet contribuerait à décupler ce qu’il appelait avec une anticipation géniale la « Virtue World Corporation ». @

Les plateformes numériques sont-elles parties pour un grand chelem de sanctions ?

Les géants du Net sont pris entre deux feux principaux : le droit de la concurrence, d’une part, et la protection des données, d’autre part. Mais ces deux référentiels juridiques s’entremêlent de plus en plus et se démultiplient, au risque d’aboutir à des doubles sanctions. Ce que l’Europe assume.

Par Olivier de Courcel, avocat associé, cabinet Féral-Schuhl/Sainte-Marie

Alors que les textes de référence s’accumulent, de même que les procédures de contrôle et les sanctions (aux amendes toujours plus élevées), la mise en conformité (compliance) devient comme un grand chelem pour les plateformes numériques. Les procédures se multiplient: aux Etats-Unis, 5 milliards de dollars imposés à Facebook par la FTC américaine en juillet 2019, contrôle en cours par le DoJ sur les GAFA, enquête préliminaire conjointe de 48 Etats fédérés ; en Europe, amende de 2 millions d’euros en Allemagne pour le manque de transparence de Facebook sur les contenus illicites (1), enquête préliminaire lancée par la Commission européenne sur la collecte et l’utilisation des données des utilisateurs de Google (2), contrôle en cours par la « Cnil » irlandaise sur les ventes aux enchères d’espaces publicitaires de Google, pré-rapport de l’autorité de la concurrence britannique (CMA) sur les plateformes (3), etc…

Un empilement de textes et de sanctions
Or les référentiels juridiques ainsi opposés aux plateformes numériques sont d’autant plus complexes à articuler qu’ils tendent à s’ajouter en silos les uns à la suite des autres sans mise en cohérence. Les plateformes numériques sont d’abord des habituées du droit de la concurrence. La première décision rendue en France contre Google, en 2010 par l’Autorité de la concurrence, sanctionnait déjà le fonctionnement discriminatoire de l’affichage publicitaire sur le moteur de recherche et l’opacité des conditions de fourniture et interruption de son service Adwords (4). Le même abus de position dominante était soumis au gendarme de la concurrence à deux occasions en 2019 (5), ce qui l’amena en décembre dernier à assortir son injonction d’une sanction pécuniaire de 150 millions d’euros (6). Google a également fait l’objet de sanctions par la Commission européenne, à trois reprises entre 2017 et 2019 et pour un total qui dépasse 8 milliards d’euros (7). Par ailleurs, au titre du contrôle des concentrations, cette dernière a approuvé les principales opérations de fusion-acquisition des plateformes, notamment celle en 2014 de WhatsApp par Facebook (8). Ensuite, l’entrée en vigueur fracassante du règlement général sur la protection des données (RGPD), le 25 mai 2018, avec possibilité de sanctions jusqu’à 4% du chiffre d’affaires, a amené les entreprises, y compris les plateformes numériques, à prendre plus au sérieux le référentiel juridique applicable aux traitements de données à caractère personnel. A ce jour, néanmoins, les sanctions prononcées ne dépassent pas 215 millions d’euros pour un dossier (9). Les plateformes numériques connaissent bien l’orientation des régulateurs européens en matière de données et vie privée puisque, ne serait-ce qu’en France, Facebook a subi en 2017 deux décisions de sanction : l’une pour sa combinaison massive de données à des fins de ciblage publicitaire des internautes, y compris à leur insu et sur des sites tier (150.000 euros) (10); l’autre pour le traitement illégal par Facebook de données reçues de WhatsApp, (150.000 euros) (11).
Enfin, dans le cadre de sa stratégie pour un marché unique numérique, la Commission européenne a défini des règles applicables à l’ensemble des plateformes en ligne et places de marché actives dans l’Union européenne (près de 7.000), inspirées du droit de la concurrence et du droit de la consommation. Avec le règlement de juin 2019 sur les services d’intermédiation en ligne (12), elle interdit à toute plateforme numérique (et pas seulement celles en position dominante) de fermer sans motif le compte d’un vendeur. Dans le même cadre, les directives européennes concernant les consommateurs ont fait l’objet d’une révision d’ensemble via une directive du 27 novembre 2019 (13). Tout en renforçant la transparence pour les transactions BtoC sur les places de marché en ligne et en établissant une protection pour les consommateurs vis-à-vis des services numériques dits « gratuits » mais fournis contre leurs données personnelles, la nouvelle directive reprend le principe de sanctions pécuniaires qui, dans les lois nationales, devront s’élever « au moins » à 4% du chiffre d’affaires réalisé. En matière de « compliance », le RGPD fait des émules…

Application cumulative ou alternative
Le droit européen de la consommation apporte ainsi un troisième référentiel juridique pour le contrôle et la sanction des plateformes numériques (lesquels relèvent cependant à titre principal des autorités nationales). Encore ce panorama doit-il être complété par des réglementations plus spécifiques telles que la fiscalité (taxe GAFA), le droit d’auteur et les droits voisins de la presse (Google Actualités), la réglementation des télécoms (neutralité du Net) et d’autres…. Les référentiels de conformité opposables aux plateformes numériques s’articulent en fonction de leur objet et de leur échelon de contrôle (autorités nationales ou Commission européenne), ce qui peut entraîner une application cumulative ou alternative selon les cas.

RGPD et abus de position dominante
L’information donnée aux internautes est à l’intersection du droit de la concurrence et de la réglementation des données. Lorsque la filiale WhatsApp informe en 2016 ses utilisateurs qu’elle croisera leurs numéros de téléphone avec leurs identifiants Facebook, la Commission européenne constate que le rapprochement des deux bases de données était déjà possible techniquement lors de l’acquisition par Facebook en 2014, contrairement aux informations alors fournies. Facebook s’en sort en mai 2017 avec une amende de 110 millions d’euros. Mais cette transmission des données de WhatsApp et le manque d’information aux personnes sont aussi sanctionnés par la Cnil en décembre 2019 (150.000 euros). Le droit des abus de position dominante peut aussi prendre en compte une infraction à une loi spécifique, à partir du moment où l’infraction traduit un abus de cette position qui a pour objet ou pour effet de restreindre la concurrence sur le marché considéré (14). C’est ainsi qu’en Allemagne, l’autorité de la concurrence s’est essayée en février 2019 à démontrer les manquements de Facebook au RGPD pour considérer qu’ils traduisaient en tant que telle la position dominante du réseau social et son exploitation abusive (15). En appel, cette confusion des genres n’a pas été écartée dans le principe, mais la cour régionale de Düsseldorf a considéré que le non-respect du RGPD ne démontrait pas à lui seul l’existence d’un abus de position dominante ayant un effet anti-concurrentiel (16).
En sens inverse, pour le calcul de ses sanctions, le RGPD prend en compte certains aspects qui peuvent traduire une position dominante, tels que le nombre de personnes concernées par la violation ou bien les avantages financiers obtenus (17). Dans ses décisions concernant Facebook, la Cnil ne manque pas d’évoquer les 33 millions de personnes concernées et le caractère massif de la collecte de données qui en résulte (18). Dans sa décision de janvier 2019 concernant Google (50 millions d’euros), la Cnil considère même que la position dominante du système d’exploitation Android sur le marché français, associée au modèle économique du moteur de recherche bâti sur la publicité personnalisée, renforce les obligations de Google au titre du RGPD (19). A l’échelon de l’Union européenne, le commissaire à la Concurrence envisage de combiner la réglementation des données personnelles et les règles antitrust en analysant les données comme des actifs, dont la valeur croît d’autant plus qu’elles ne sont pas facilement accessibles ou reproductibles et qu’elles peuvent constituer une barrière à l’entrée pour d’autres entreprises. En sens inverse, il anticipe que la qualité de la protection de la vie privée offerte par un service puisse stimuler la concurrence (20). De telles situations créent le risque d’une double sanction pour un même comportement, au titre du droit de la concurrence et du RGPD ou d’une autre réglementation, comme dans le cas Facebook-WhatsApp. En effet, si le principe « non bis in idem » interdit d’appliquer plusieurs sanctions à une même infraction, des exceptions sont possibles lorsqu’il existe un motif d’intérêt général, lorsque que les sanctions ont des objectifs complémentaires et lorsqu’elles respectent le principe de nécessité et proportionnalité des peines (21).
A l’opposé des situations de recoupement, il peut y avoir des « vides réglementaires », lorsqu’un acteur ne se trouve pas en position dominante ou que son comportement n’a pas d’effet anti-concurrentiel sur le marché et que, pour autant, la réglementation n’est pas assez précise pour incriminer son comportement. C’est en ce sens que le règlement de juin 2019 sur les services d’intermédiation en ligne établit des règles inspirées du droit de la consommation pour les entreprises qui normalement n’en bénéficient pas. Or le partage des compétences entre autorités de contrôle est un facteur majeur de la fragmentation des décisions.
Au lieu d’une répartition à partir de seuils de chiffre d’affaires assortie d’un principe de dessaisissement des autorités nationales au profit de la Commission européenne, comme en droit de la concurrence, le RGPD prévoit la compétence de l’autorité nationale de chaque pays concerné par le traitement de données en cause. Un traitement transfrontalier peut être suivi par une autorité nationale « chef de file » (22), mais celle-ci doit susciter un consensus avec ses pairs sur son projet de décision. En cas de désaccord entre autorités nationales, le comité européen à la protection des données (CEPD), qui les réunit toutes, est appelé à trancher (23). En pratique, le risque serait de voir la violation des règles de protection des données sanctionnée faiblement ou pas du tout par les autorités nationales (plus sensibles aux intérêts économiques de leur pays) et se trouver sanctionnée lourdement par la Commission européenne mais au titre du droit de la concurrence. La crédibilité du RGPD s’en trouverait réduite.

Une politique des plateformes s’impose en Europe
Dans ce contexte réglementaire fragmenté, des appels se font entendre pour réviser le droit de la concurrence, promouvoir l’open data et l’interopérabilité, réguler les plateformes numériques à l’instar des opérateurs télécoms dominants, ou encore scinder les GAFAM. Mais en attendant de telles réformes, on peut s’interroger sur le risque de l’absence de politique ou de projet industriel européens pour concurrencer les plateformes américaines et chinoises et pour traiter les données en Europe. @

Droit moral des auteurs de films et de séries : le final cut «à la française» s’imposera par la loi

Netflix, Amazon Prime Video ou encore Disney+ seront tenus de respecter le final cut « à la française », qui requiert l’accord du réalisateur pour le montage définitif d’un film ou d’une série. Ce droit moral est visé par le projet de loi sur l’audiovisuel présenté le 5 décembre dernier.

Charles Bouffier, avocat conseil, et Charlotte Chen, avocate, August Debouzy

Le final cut désigne la version définitive du montage d’une œuvre cinématographique ou audiovisuelle – un film ou une série par exemple – distribuée ou diffusée. Le final cut désigne également un droit, celui que détient la personne qui a le pouvoir de décider de ce montage définitif. S’il est d’usage aux Etats-Unis que le producteur ait ce pouvoir décisionnel (laissant éventuellement au réalisateur le loisir d’éditer une version « director’s cut »), la situation française est différente en vertu notamment des droits moraux dont jouissent les auteurs.

Ce que dit le droit américain
A l’heure ou des producteurs et/ou diffuseurs américains – au premier rang desquels Netflix – investissent de plus en plus le champ de la création audiovisuelle européenne, et notamment française, le final cut « à l’américaine » estil soluble dans le paysage audiovisuel français ? La question est plus que jamais d’actualité compte-tenu des dispositions du projet de loi relatif à la communication audiovisuelle. Selon le régime du « work made for hire » du copyright américain, à savoir le « Title 17 – Copyrights » (1), le commanditaire d’une œuvre notamment audiovisuelle ou cinématographique (2), est considéré, par principe, comme titulaire des droits sur l’œuvre (3). Par conséquent, à moins que les parties en conviennent autrement, tous les droits d’auteur (copyright) de l’œuvre, incluant le final cut, sont détenus par le commanditaire. La cession des droits, et du final cut plus particulièrement, peut néanmoins être aménagée dans le contrat de production, conformément à ce que recommande la Directors Guild of America (syndicat professionnel représentant les intérêts des réalisateurs américains). Par ailleurs, le copyright américain protège le droit à la paternité et le droit à l’intégrité de l’œuvre de l’auteur mais uniquement pour les œuvres pouvant être qualifiées de « work of visual art » (4). Celles-ci sont limitativement énumérées – peintures, dessins, sculptures, etc. – et n’incluent pas les œuvres cinématographiques et audiovisuelles (5). En droit français, depuis 1957 pour les œuvres cinématographiques (6) et 1985 pour les œuvres audiovisuelles au sens large (7), le final cut résulte d’un commun accord entre le réalisateur et le producteur. Le texte est aujourd’hui codifié à l’article L. 121-5 du code de la propriété intellectuelle (CPI), comme suit : « L’œuvre audiovisuelle est réputée achevée lorsque la version définitive a été établie d’un commun accord entre, d’une part, le réalisateur ou, éventuellement, les coauteurs et, d’autre part, le producteur. Il est interdit de détruire la matrice de cette version. Toute modification de cette version par addition, suppression ou changement d’un élément quelconque exige l’accord des personnes mentionnées au premier alinéa. […] ». Dans la mesure où les prérogatives ainsi reconnues au réalisateur découlent de son droit moral (droit de divulgation/droit au respect de l’intégrité de l’œuvre), elles sont en principe incessibles et ne peuvent faire l’objet d’une renonciation par anticipation (8). Elles peuvent cependant faire l’objet de certains aménagements contractuels dans le contrat de production (prise en compte des commentaires du producteur, délais impartis à ce dernier pour émettre un avis, etc.). En outre, une partie qui refuserait de collaborer de bonne foi dans la mise en œuvre de cet article L. 121-5 pourrait voir sa responsabilité contractuelle engagée, tout refus abusif pouvant par ailleurs être surmonté par le recours au juge (9).
Ces dispositions permettent donc au réalisateur d’affirmer ses choix artistiques, en collaboration avec le producteur. Elles permettent également aux auteurs de faire respecter leur choix quant au montage définitif après achèvement de l’œuvre audiovisuelle. L’achèvement du film est même une des conditions pour que l’auteur puisse exercer ses droits moraux tels que listés à l’article L.121-1 du CPI (10). A titre d’illustration, un juge des référés a été conduit à prononcer l’interdiction de diffusion d’un film suite à l’opposition du réalisateur à la divulgation d’une version définitive n’ayant pas reçu son accord. Le juge a considéré que le réalisateur avait démontré les justes motifs de s’opposer à la divulgation de la version définitive litigieuse (11).

Le Final cut français reconnu d’ordre public
Ainsi, l’auteur peut avoir intérêt à se prévaloir de ses prérogatives tirées de l’article L.121-5 du CPI avant achèvement de l’œuvre, au cours de ses échanges avec son producteur, car postérieurement au montage définitif il lui sera nécessaire d’apporter la preuve d’un préjudice subi en raison des différentes atteintes alléguées (12). • Quid d’un contrat de production conclu avec un auteur français mais soumis au droit américain ? En droit interne, la Cour de cassation a expressément reconnu en 1973 le caractère d’ordre public du final cut « à la française » en déclarant nulle comme contraire à l’ordre public une clause qui conférerait le pouvoir de décision du montage définitif à la seule société productrice (13). Cette solution est conforme à une jurisprudence constante selon laquelle les dispositions de l’article L.121-1 du CPI sont d’ordre public (14). Mais un contrat de production audiovisuelle régi par un droit étranger pourrait-il contourner ce régime ? La question mérite d’être posée, car l’ordre public interne n’est pas nécessairement transposable à l’ordre public international.

Transposition de la directive « SMA »
Sur la base de l’article L. 121-1 du CPI, la jurisprudence française reconnaît cependant que la protection accordée par le droit moral à l’auteur est d’ordre public au sens du droit international privé. En particulier, la Cour de cassation, après avoir rappelé l’impérativité du droit au respect de l’intégrité de l’œuvre, a considéré qu’une Cour d’appel avait violé l’article L. 121-1 du CPI en refusant aux héritiers d’un réalisateur américain (John Huston) la possibilité de s’opposer à la version colorisée d’un film au motif que la loi américaine et les contrats passés conclus entre le producteur et les réalisateurs leur déniait la qualité d’auteur (15). Avant cet arrêt, la Cour d’appel de Paris avait déjà reconnu que le droit moral français pouvait être invoqué comme une exception d’ordre public aux clauses d’un contrat soumis à la loi de l’Etat de New-York (16). Aussi, dans la mesure où le final cut de l’article L.121-5 du CPI découle du droit moral de l’auteur, il pourrait être soutenu, par analogie avec les arrêts précités, que les prérogatives du réalisateur prévues par cet article sont d’ordre public au sens du droit international privé. Elles pourraient donc être invoquées comme une exception d’ordre public à la loi étrangère qui énoncerait un régime contraire, pour la neutraliser. En d’autres termes, la clause qui prévoirait que le montage définitif d’une œuvre audiovisuelle serait confié exclusivement au producteur pourrait être déclarée nulle par le juge français, même si la loi du contrat le permettrait. • Quels vont être en France les apports du projet de loi audiovisuel ? Le Parlement s’apprête à réformer le cadre juridique audiovisuel français, issu principalement de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication (loi dite « Léotard »). Il s’agit notamment de transposer la directive européenne sur les services de médias audiovisuels, actualisée en 2018 – directive SMA (17) – pour étendre les règles audiovisuelles aux nouveaux services de médias audiovisuels à la demande (SMAd) tels que Netflix, Amazon Prime Video ou bien encore Disney+. En effet, soucieux d’adapter le cadre juridique de l’audiovisuel français à ces enjeux numériques mais également dans le but de transposer certaines dispositions de la directive sur le droit d’auteur dans le marché unique numérique (18), le ministère de la Culture a proposé un « projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique » présenté en conseil des ministres le 5 décembre 2019. Ce projet de loi devrait en principe être discuté au Parlement début 2020 selon la procédure accélérée. Les SMAd semblent particulièrement visés par les articles 1er et 7 de ce projet de loi – dans sa dernière version publique (19) –, qui tendent à renforcer la protection des droits moraux et patrimoniaux des auteurs avec lesquels ils peuvent être amenés à contracter. L’article 1er propose en effet d’exclure des œuvres prises en compte au titre de la contribution au développement de la production française celles dont les contrats de production ne respecteraient ni les droits moraux des auteurs ni les principes relatifs à leur rémunération (20). A cet égard, l’article 1er vise expressément l’article L. 121-1 du CPI et, surtout, l’article L. 121-5 du CPI qui prévoit le régime français du final cut. Dans le même sens, l’article 7 propose d’insérer un nouvel article L. 311-5 dans le code du cinéma et de l’image animée qui subordonnerait les aides financières du CNC à l’inclusion, dans les contrats conclus avec les auteurs d’œuvres cinématographiques et audiovisuelles, de clauses types garantissant le respect des droits énoncés par l’article 1er.
Le respect effectif des droits d’auteur deviendrait ainsi une mission du CNC (21) qui pourrait saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom, future autorité administrative indépendante issue de la fusion entre le CSA et la Hadopi) chargée de contrôler de cette exigence (22). Ces articles résultent en partie d’une proposition formulée par le rapport Bergé (23), qui considérait qu’une garantie de rémunération proportionnelle des auteurs était nécessaire au regard des pratiques de certains SMAd, Netflix étant visée expressément (24). En revanche, le rapport Bergé n’abordait pas la problématique du respect des droits moraux des auteurs dans les contrats de production. Il semblerait que cet ajout – et plus particulièrement la référence à l’article L.121-5 du CPI – interviennent en réponse aux doléances de certains producteurs et auteurs français confrontés aux pratiques contractuelles de Netflix, alors pourtant que son avocat français assure que « tous les contrats de Netflix sont conformes au droit français » (25).

Négociations contractuelles sous l’œil de la loi
En tout état de cause, si ces nouvelles dispositions étaient adoptées, les œuvres – dont les contrats de production réserveraient le final cut exclusivement au producteur – risqueraient de ne pas être prises en compte au titre de la contribution au développement de la production française. Et ces œuvres pourraient être privées des aides du CNC, dotant ainsi les auteurs d’un argument financier de taille dans la négociation contractuelle de leurs droits. @

A la poursuite du droit à l’oubli et d’un équilibre par rapport aux autres droits fondamentaux

Le droit à l’oubli sur Internet – dont le droit au déréférencement sur les moteurs de recherche – n’est pas un droit absolu. Il s’arrête là où commencent d’autres droits fondamentaux comme la liberté d’informer – selon le principe de proportionnalité. Mais cet équilibre est à géométrie variable.

Fabrice Lorvo*, avocat associé, FTPA.

L’oubli est une préoccupation récente aux racines millénaires. C’est d’abord un concept auquel notre civilisation est rompue depuis le code de Hammurabi (1). Cependant, l’effectivité de l’oubli a été profondément remise en cause par la révolution numérique car la donnée devient aujourd’hui indéfiniment apparente sur les sites web et immédiatement accessible par les moteurs de recherche. Dès lors, le législateur comme le juge œuvrent pour adapter un droit à l’oubli (2) à l’outil numérique.

Conditions du droit au déréférencement
Deux arrêts ont été rendus le 24 septembre 2019 par la Cour de justice de l’Union européenne (CJUE) qui contribuent à en définir les modalités. Nous nous intéresserons à celui (3) qui apporte d’importantes précisions sur les conditions dans lesquelles une personne peut exercer son droit au déréférencement. Ce droit permet à une personne de demander à un moteur de recherche de supprimer certains résultats qui apparaissent à partir d’une requête faite avec son nom et son prénom lorsque ces résultats renvoient vers des pages contenant des informations sensibles la concernant (par exemple, sa religion, ses opinions politiques ou l’existence d’une procédure pénale). Cette suppression concerne uniquement la page de résultats et ne signifie donc pas l’effacement des informations sur le site web source. Les informations continuent d’exister, mais il est plus difficile et long de les retrouver.
Au regard des textes successivement applicables (4), et des enseignements de la jurisprudence « Google Spain » (5) de 2014, la CJUE apporte les précisions suivantes :

Les interdictions et les restrictions au traitement de certaines données, comme les exceptions prévues par les textes, s’appliquent à l’exploitant d’un moteur de recherche à l’occasion de la vérification qu’il doit opérer à la suite d’une demande de déréférencement. Le rôle du moteur de recherche est décisif dans la mesure où, techniquement, il permet de trouver immédiatement, dans l’océan des données disponibles sur Internet, toutes les informations sur une personne dénommée, et, en les regroupant, de constituer ainsi un profil. La cour rappelle que l’exploitant d’un moteur de recherche n’est pas responsable des données existantes, mais uniquement de leur référencement et de leur affichage dans une page de résultats suite à une requête nominative. Cet exploitant doit respecter la législation sur le traitement des données comme les éditeurs de sites web. Tout autre interprétation constituerait « une ingérence particulièrement grave dans les droits fondamentaux au respect de la vie privée et à la protection des données à caractère personnel » qui sont garantis par les textes.

L’exploitant d’un moteur de recherche a l’obligation de faire droit à la demande de la personne concernée… sauf si des exceptions (prévues par les textes) s’appliquent. La CJUE rappelle que les Etats membres doivent garantir aux personnes concernées le droit d’obtenir du responsable de traitement l’effacement des données dont le traitement n’est pas conforme aux textes. De même, en cas de demande de déréférencement, l’exploitant d’un moteur de recherche est obligé de supprimer de la liste de résultats, des liens vers des pages web, publiées par des tiers et contenant des informations sensibles relatives à cette personne, même si lesdites informations ne sont pas effacées préalablement ou simultanément de ces pages web, et même lorsque leur publication en elle-même sur lesdites pages est licite. Enfin, la cour rappelle que le consentement de la personne au traitement de ce type d’information est nécessaire et qu’il n’existe plus à partir du moment où ladite personne demande le déférencement. Il n’est donc pas nécessaire de prouver que le référencement cause un préjudice.

Droit absolu et principe de proportionnalité
Ce régime extrêmement protecteur, eu égard à l’importance de l’impact d’une telle publication pour l’individu, connaît néanmoins une exception de taille. En effet, l’ingérence dans les droits fondamentaux d’un individu peut cependant être justifiée par l’intérêt prépondérant du public à avoir accès à l’information (6) en question. Le droit au déréférencement des données à caractère personnel n’est donc pas un droit absolu, il doit être systématiquement comparé avec d’autres droits fondamentaux conformément au principe de proportionnalité. En conséquence, le droit à l’oubli de la personne concernée est exclu lorsqu’il est considéré que le traitement desdites données est nécessaire à la liberté d’information. Le droit à la liberté d’information doit répondre à des objectifs d’intérêt général reconnu par l’Union européenne ou, au besoin, de protection des droits et des libertés d’autrui.

Droits fondamentaux et liberté d’informer
Lorsqu’il est saisi d’une demande de déréférencement, l’exploitant d’un moteur de recherche doit donc mettre en balance, d’une part, les droits fondamentaux de la personne concernée et, d’autre part, la liberté d’information des internautes potentiellement intéressés à avoir accès à cette page web au moyen d’une telle recherche. D’après la CJUE, si les droits de la personne concernée prévalent, en règle générale, sur la liberté d’information des internautes, cet équilibre peut toutefois dépendre de la nature de l’information en question et de sa sensibilité pour la vie privée de la personne concernée ainsi que l’intérêt du public à disposer de cette information. Or, cet intérêt peut varier notamment en fonction du rôle joué par cette personne dans la vie publique, comme l’illustre la jurisprudence « Google Spain ».

Enfin, la CJUE aborde la question cruciale de la publication relative à une procédure judiciaire, notamment quand ces informations sont devenues obsolètes. Il s’agit des informations concernant une enquête, une mise en examen ou un procès et, le cas échéant, de la condamnation qui en a résulté. La cour rappelle que la publication de ces données est soumise à des restrictions particulières (7) et qu’elle peut être licite lorsqu’elle est divulguée au public par les autorités publiques. Cependant, un traitement initialement licite de données exactes peut devenir avec le temps illicite, notamment lorsque ces données apparaissent inadéquates, qu’elles ne sont pas ou plus pertinentes, ou sont excessives au regard des finalités du traitement ou du temps qui s’est écoulé. L’exploitant d’un moteur de recherche doit encore vérifier, au jour de la demande de déréférencement, si l’inclusion du lien dans le résultat est nécessaire à l’exercice du droit à la liberté d’information des internautes potentiellement intéressés par l’accès à cette page web au moyen d’une telle recherche. Dans la recherche de ce juste équilibre entre le droit au respect de la vie privée des personnes, et notamment la liberté d’information du public, il doit être tenu compte du rôle essentiel que la presse joue dans une société démocratique et qui inclut la rédaction de comptes rendus et de commentaires sur les procédures judiciaires, ainsi que le droit pour le public de recevoir ce type d’information. En effet, selon la jurisprudence (8), le public a un intérêt non seulement à être informé sur un événement d’actualité, mais aussi à pouvoir faire des recherches sur des événements passés, l’étendue de l’intérêt du public quant aux procédures pénales étant toutefois variable et pouvant évoluer au cours du temps en fonction, notamment, des circonstances de l’affaire : notamment « la nature et la gravité de l’infraction en question, le déroulement et l’issue de ladite procédure, le temps écoulé, le rôle joué par cette personne dans la vie publique et son comportement dans le passé, l’intérêt du public à ce jour, le contenu et la forme de la publication ainsi que les répercussions de celle-ci pour ladite personne ».

Outre l’actualité ou le passé définitif, une difficulté demeure pour les informations obsolètes ou partielles. Par exemple, qu’en est-il pour une mise en examen annoncée sur Internet qui a aboutie à un non-lieu ? Ou pour une décision de condamnation frappée d’appel ? L’apport nouveau et essentiel de cet arrêt du 24 septembre 2019 est que la CJUE considère que même si la liberté d’information prévaut, l’exploitant est en tout état de cause tenu – au plus tard à l’occasion de la demande de déréférencement – d’aménager la liste de résultats, de telle sorte que l’image globale qui en résulte pour l’internaute reflète la situation judiciaire actuelle. Ce qui nécessite notamment que des liens vers des pages web comportant des informations à ce sujet apparaissent en premier lieu sur cette liste. Il s’agit là d’une précision essentielle, en théorie, mais qui peut s’avérer complètement inefficace en pratique. Pour apparaître dans les résultats, ces pages (sur la situation judiciaire actuelle) doivent… exister. Que se passe-t-il si des pages web ne comportent pas d’informations sur la suite de la procédure ? Souvent, la presse s’intéresse plus aux mises en examen qu’aux cas de nonlieu. La personne concernée devra-t-elle publier elle-même des pages web sur sa situation judiciaire actuelle ? Mais dans l’esprit du public, quelle force aura cette preuve pro domo (9) ? Devra-t-elle avoir recours à une agence de communication pour ce faire ? Enfin, les délais de traitement des demandes de référencement sont très longs, d’abord pour les moteurs de recherche puis au niveau des autorités de contrôle (la Cnil en France), et, pendant ce temps-là, les résultats de la recherche demeurent affichés ; le mal est fait. Avoir raison trop tard, c’est toujours avoir tort dans l’esprit du public.

Renverser la charge de la preuve ?
Dans ces conditions, pour ce type d’information d’une extrême sensibilité et, au moins, pour les personnes qui ne recherchent pas les suffrages du public, ne conviendrait-il pas de renverser la charge de la preuve ? D’imposer que l’exploitant du moteur de recherche ait l’obligation, à première demande, de déréférencer ces données ? Et s’il considère que la balance penche dans l’intérêt du public, l’exploitant devra saisir l’autorité de contrôle puis, en cas de refus, les tribunaux pour demander l’autorisation de re-référencer le lien. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.

Les universitaires du Stigler Center signent un rapport accablant sur les plateformes numériques

Google, Facebook, Amazon, Apple, Microsoft, … Les plateformes digitales sont passées au crible par des universitaires du centre Stigler. Conclusion : les GAFA sont devenus tellement incontournables qu’il faut ouvrir leurs infrastructures et données aux nouveaux entrants. Réguler s’impose.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Réunis au sein du prestigieux Stigler Center de l’université de Chicago, une trentaine d’universitaires (1) dénoncent la puissance des grandes plateformes numériques. Leur rapport intitulé « Stigler Committee on Digital Platforms » (2) compare les GAFA aux lobbies du passé (tabac, pétrole, finance, télécoms), et plaide pour une régulation, notamment pour éviter les effets d’addiction. On ne s’attendait pas à des accusations aussi virulentes venant de l’université de Chicago Business School, réputée pour ses positions anti-régulation.

Digital Platforms et « kill zones »
Le rapport « Stigler » met en exergue la difficulté pour un nouvel entrant de pénétrer un quelconque marché numérique qui concernerait l’une des grandes plateformes déjà en place. D’une part, les plateformes sont souvent des intermédiaires indispensables pour permettre à un nouvel entrant d’accéder au public, via les magasins d’application et les systèmes d’exploitation mobile. Or, cette position privilégiée permet aux plateformes numériques d’observer la progression du nouvel entrant et d’ajuster leur stratégie en conséquence (3). D’autre part, les plateformes ont tendance à racheter tout nouvel entrant qui présenterait un risque potentiel. Le rapport évoque une baisse d’investissement en capital-risque pour toute activité touchant aux domaines des « Digital Platforms » (l’acronyme GAFA n’est jamais utilisé par les auteurs). Les fonds de capital-risque considèrent ces activités hors limites (« kill zones »), où le taux de mortalité des nouveaux entrants est trop élevé pour investir. Pour remédier à ces problèmes, le rapport « Stigler » préconise un régime d’interopérabilité et d’interconnexion similaire à ce qui existe en télécommunications, et plus récemment en services de paiement, via la directive européenne « DSP2 ». Ainsi, un nouvel entrant pourrait s’appuyer en partie sur les infrastructures et données des plateformes pour proposer un nouveau service, sans que les plateformes puissent objecter, ni appliquer des redevances excessives. Sans aller jusqu’au démantèlement des GAFA, le rapport propose la création d’une autorité de régulation numérique spécialisée, à l’image de la FCC (le régulateur fédéral américain des télécoms), qui pourrait imposer des remèdes spécifiques en cas de refus d’interopérabilité. Pour empêcher les plateformes de racheter tout concurrent potentiel, les experts du Stigler Center préconisent un régime d’autorisation quasi systématique pour les opérations de concentration menées par les grandes plateformes. Actuellement, beaucoup d’opérations de fusion-acquisition tombent en dessous des seuils de notification. Les experts proposent d’abaisser ces seuils, afin que la quasi-totalité des opérations de fusions et acquisitions de grandes plateformes soient examinées.
Le rapport souligne que les services gratuits ne sont jamais gratuits, mais sont plutôt rémunérés en nature par les données fournies par les utilisateurs. Les plateformes se rémunèrent par ailleurs sur l’autre côté de leur marché biface, en appliquant des tarifs élevés d’intermédiation en matière de publicité (4). Selon le rapport, les autorités de concurrence doivent tenir compte de la qualité du service comme un élément du prix : une baisse dans la qualité du service – par exemple des conditions générales déséquilibrées, ou une faible protection des données personnelles – équivaut à une augmentation du prix pour l’utilisateur, signe d’un pouvoir sur le marché. Pour souligner la grande valeur des données générées par les utilisateurs, le rapport « Stigler » cite l’exemple de moteurs de recherche concurrents à Google qui proposent une forme de compensation aux internautes en échange de l’utilisation de leurs données, par exemple la plantation d’arbres pour lutter contre la déforestation (Ecosia) ou un programme de points de fidélité (Bing). Malgré ces incitations, la position de Google sur le marché des moteurs de recherche semble inébranlable.

Monopoles naturels et risque d’addiction
Le rapport n’exclut pas que certaines activités – par exemple, l’activité de moteur de recherche – puissent constituer des monopoles naturels, à savoir des activités pour lesquelles il serait normal et efficace de n’avoir qu’un seul opérateur. Mais dans ce cas, la régulation s’impose. Le rapport évoque l’idée d’imposer des obligations renforcées de loyauté et de transparence (fiduciary duty). Selon les sages du centre Stigler, un autre danger vient de la manipulation des usagers et de l’addiction : « Ajouter un phénomène d’addiction à une situation monopole et vous avez probablement la pire combinaison imaginable », selon eux (5). Ils demandent à ce que les phénomènes d’addiction soient étudiés à part entière, et que les plateformes ouvrent leurs données afin de faciliter ces recherches. Le rapport montre en outre que le journalisme est une victime collatérale des GAFA. La baisse de recettes publicitaires conduit à la quasi-disparition de la presse locale et régionale aux Etats-Unis. Les auteurs du rapport soulignent que la disparition de la presse locale n’est pas critiquable en soit, car de nombreuses industries disparaissent à cause de bouleversements technologiques – la « destruction créatrice » est un phénomène normal, notent les sages.

Presse : menaces sur le journalisme
Le problème réside plutôt dans l’absence d’alternatifs pour remplir le vide laissé par la presse locale, une presse qui contribue à la transparence de la politique locale et encourage l’engagement politique des citoyens. Or, les grandes plateformes ont peu d’incitations à promouvoir un journalisme d’investigation au niveau local, ni même à limiter la désinformation sur leurs réseaux. Les incitations vont plutôt dans le sens opposé, les algorithmes cherchant à maximiser l’engagement individuel de l’utilisateurs, une maximisation qui passe par la recommandation de contenus correspondant à la « bulle d’information » de l’utilisateur, et à la proposition de contenus accrocheurs voire choquants. L’absence de responsabilité des plateformes (6) crée une distorsion par rapport à la presse traditionnelle, selon les experts du Stigler Center. Ils proposent d’abolir cette protection lorsque les plateformes poussent des contenus vers l’utilisateur et bénéficient de recettes publicitaires. En ce qui concerne la protection du journalisme local, le groupe d’experts préconise l’expérimentation de différentes approches réglementaires au niveau local (7).
En matière de protection des données à caractère personnel cette fois, les auteurs du rapport « Stigler » constatent la futilité de s’appuyer sur un régime de consentement libre et éclairé. Les plateformes comprennent les faiblesses humaines et les biais en tout genre. L’une des propositions du rapport est d’imposer aux plateformes des paramètres par défaut qui correspondraient à ce que souhaiterait une majorité des utilisateurs. Un régulateur ou autre organisme indépendant conduirait des études scientifiques pour déterminer ce que souhaite la majorité des utilisateurs , et les entreprises seraient tenues d’appliquer ces préférences par défaut. Ces préconisations rejoignent l’approche européenne, à ceci près que le niveau minimum de protection serait fixé en fonction des attentes de la majorité des internautes, mesurées par des chercheurs indépendants. Le rapport souligne l’impact très positif des plateformes sur la liberté d’expression. Mais, en même temps, il s’inquiète du pouvoir sans précédent des plateformes sur le plan politique. Ses auteurs estiment que les sociétés Google et Facebook cumulent le pouvoir politique réuni d’ExxonMobil, du New York Times, de JPMorgan Chase, de la NRA (National Rifle Association) et de Boeing. De plus, cette puissance se concentre entre les mains de seulement trois individus, Mark Zuckerberg, Sergey Brin et Larry Page : « Trois personnes disposent d’un contrôle absolu sur les flux d’informations personnalisées et obscures de milliards d’individus » (8) s’inquiètent les sages. Le rapport préconise des obligations de transparence accrues, notamment sur les financements des campagnes politiques, ainsi que par rapport à toute pratique « non-neutre » à l’égard des messages politiques. Cette étude du Stigler Center est riche, bien étayée, mais surprenante par son agressivité à l’égard les GAFA, une agressivité que l’on trouve plus habituellement dans la bouche de personnages politiques, tels que la candidate démocrate à la présidence Elizabeth Warren. Surtout, les auteurs du rapport semblent oublier qu’il y a seulement quelques années, le monde académique était très divisé sur le pouvoir des GAFA et le rôle de la régulation. Une partie importante des universitaires restait prudente sur l’idée de réguler les plateformes numériques, estimant que la régulation était un outil trop rigide pour un marché en forte évolution technologique, et que le meilleur remède contre le pouvoir des plateformes était l’innovation technologique (9). Il est regrettable que le nouveau rapport n’ait pas examiné ces arguments, ne serait-ce que pour expliquer pourquoi les circonstances ont changé. @

* Winston Maxwell, ancien avocat associé du cabinet Hogan
Lovells, est depuis juin 2019 directeur d’études, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.

FOCUS

Neutralité de l’Internet : champ libre à la Californie pour légiférer
Peu après l’élection de Donald Trump, la FCC a annulé la plupart des dispositions qu’elle avait prises en matière de neutralité de l’Internet pour revenir à une position plus libérale. Ce revirement du régulateur fédéral américain des télécoms a été attaqué en justice par les défendeurs de la neutralité, dont la fondation Mozilla. Dans sa décision du 1er octobre 2019 (10), la cour d’appel a conclu que la FCC était en droit de changer sa position, puisque le texte de la loi fédérale sur les télécommunications est ambigu sur la régulation de l’Internet, et la FCC a de nouveaux arguments crédibles pour fonder son changement de position. Saluée par Donald Trump comme une victoire, la décision de la cour d’appel est en réalité un cadeau empoisonné pour la FCC, car la cour laisse le champ libre aux Etats fédérés pour adopter leurs propres lois sur la neutralité. Selon la cour, la FCC ne peut pas à la fois dire que l’Internet ne tombe pas dans son domaine de régulation, et en même temps empêcher les Etats américains de légiférer. Du coup, la Californie, qui a adopté un texte sur la neutralité du Net en 2018, se retrouve confortée dans sa législation. Comme en matière de protection des données à caractère personnel, la loi californienne deviendra peut-être la nouvelle norme nationale, à moins que la décision de la cour d’appel du 1er octobre ne soit annulée par la Cour suprême des Etats-Unis. @