Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

L’intelligence artificielle (IA) – qui regroupe plusieurs technologies dont l’apprentissage machine (ou apprentissage automatique, en anglais machine learning) – est
une forme avancée de logiciel.
Un logiciel est simplement un ensemble de programmes destiné à faire fonctionner un système informatique. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut-il traiter l’IA différemment ?

Bon équilibre entre sécurité, prix et utilité
Examinons d’abord la question de la responsabilité civile. Sur le plan économique, les règles de responsabilité civile sont destinées à encourager le déploiement de nouvelles technologies, tout en s’assurant que ces technologies s’entourent de mesures de sécurité adéquates. Si les règles de responsabilité sont trop strictes, certaines technologies utiles pour la société ne seront pas déployées. Si les règles de responsabilité sont trop laxistes, la technologie créera des dommages pour la population dépassant largement les bénéfices de la technologie. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologie utile mais relativement dangereuse car responsable de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmenterait sensiblement son prix ! Comme pour la voiture, le défi pour l’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système d’IA – par exemple, un constructeur automobile ou une banque – sera incitée par les règles de responsabilité civile à s’assurer de la sécurité du système. L’une des particularités des systèmes d’apprentissage machine est leur utilisation de données d’entraînement. Le concepteur du modèle d’apprentissage fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit-il d’un défaut dans le modèle d’origine, ou est-ce que l’anomalie provient des données d’apprentissage de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système d’IA de préciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabilité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligent grâce aux données d’entraînement ; le propriétaire des données d’entraînement pourrait donc exiger une rémunération. Les contrats devront également prévoir des dispositions pour garantir que le modèle amélioré ne peut pas indirectement révéler des données confidentielles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraînement. Entre les entreprises, la plupart des questions de responsabilité seront régulées par contrat. Les décisions d’un système d’apprentissage automatique sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’application des règles de responsabilité civile et pour la régulation en général – les tribunaux, experts et régulateurs doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabilité à l’acteur approprié. De nombreux travaux sont actuellement consacrés aux problèmes de la transparence et de l’« auditabilité » des algorithmes, à l’« explicabilité » et à la responsabilisation (accountability) des décisions IA (1). Ces travaux ne font pas consensus. Sur le thème de la transparence et de l’auditabilité des algorithmes, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétaire qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparent et audité de manière à découvrir l’origine des erreurs,
et à pouvoir les corriger. La chancelière d’Allemagne, Angela Merkel, a récemment plaidé pour la transparence des algorithmes.

L’Europe veut de la transparence
En Europe, la transparence est également au cœur du règlement général sur la protection des données (RGPD) qui énonce que pour les décisions automatisées basées sur des données personnelles et qui créent des effets juridiques, les individus ont droit à « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement ». Le deuxième camp considère que l’idéal de transparence n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithmes sophistiqués (réseaux de neurones), et d’autre part, que rendre transparents les algorithmes menacerait à terme les investissements et briserait les secrets. En France, la Commission nationale de l’informatique et des libertés (Cnil) a semble-t-il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithmes. Sur le thème de la discrimination ensuite, les débats également sont animés.

Secret, discrimination et responsabilité
Des travaux récents aux Etats-Unis ont montré que des algorithmes étaient biaisés envers certaines catégories de personnes, et conduisaient donc à des discriminations. L’originalité du préjudice vient cependant d’un problème nouveau lié à l’IA : les algorithmes ont appris à discriminer à partir de données d’entraînement qui étaient biaisées, ou par simple association
de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc.
Les algorithmes n’ont pas intentionnellement discriminé : dès lors qui est responsable ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimination (non-intentionnelle) sans un accès à l’algorithme ?
Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologie IA a produit le résultat ? Dernière question liée au cas particulier d’un algorithme causant une discrimination : comment corriger une discrimination sur le genre, par exemple, s’il est impossible de collecter des informations personnelles sur le genre (du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut-il créer une personnalité juridique pour les systèmes d’IA ? Pour que
la responsabilité civile puisse fonctionner, il faut identifier une personne responsable, et cette personne devra disposer de suffisamment de ressources ou d’assurances pour dédommager les victimes. En matière d’IA, la personne responsable sera généralement l’entreprise qui exploite le système – la banque ou le constructeur automobile par exemple. Cette personne sera généralement responsable en première ligne, et se retournera ensuite contre ses fournisseurs du système IA en amont. L’entreprise exploitante sera généralement assurée contre les risques de responsabilité civile, et vérifiera que ces fournisseurs en amont le sont également. La création d’une personnalité juridique pour les systèmes d’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilité de la personne morale responsable, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétaire du navire sera généralement insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuellement la recherche d’autres personnes morales responsables à travers des théories de responsabilité indirecte (vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de l’IA ? Deux points de vue s’opposent. Selon le premier point de vue, l’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économiques et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateurs sectoriels. Selon l’autre point de vue, les risques de l’IA sont étroitement liés à chaque type d’exploitation, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de l’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques
de l’IA dans les voitures autonomes.
Un super-régulateur de l’IA ne rajouterait rien par rapport aux régulateurs sectoriels spécialisés, et pire, créerait une couche de régulation potentiellement en friction avec la régulation sectorielle. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologies en mouvement. Comme un médicament, une régulation peut créer des effets secondaires imprévus (2). La régulation de l’Internet a évolué de manière progressive en s’appuyant sur la législation existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligence artificielle »,
il faudrait privilégier une série d’améliorations de la réglementation existante. Les normes ISO (3) en matière de sécurité des véhicules sont déjà en cours de modification pour intégrer l’IA (4). Le régulateur américain de la santé, la Food & Drug Administration (FDA), a développé des procédures pour homologuer des dispositifs médicaux utilisant l’IA (5). Le seul problème lié à cette approche sectorielle est l’apparition de risques cumulatifs pour la société qui échapperaient à la vigilance des régulateurs sectoriels. Est-ce que la généralisation de l’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutions démocratiques ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateurs sectoriels.

Observatoire des effets de l’IA sur la société ?
Un récent rapport de la fondation World Wide Web (6) prend l’exemple
des « fake news » propagées à travers les réseaux sociaux : quelle structure faut-il mettre en place pour changer les incitations des acteurs à communiquer des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsables ? La Commission européenne favorise en premier lieu des solutions d’auto-régulation pour limiter l’impact de la désinformation sur la société. La surveillance de ce type de risque plus diffus pourrait être confiée à une institution dédiée – une sorte d’observatoire des effets de l’IA sur la société. L’objectif de cette institution serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut-il définir les indices ! @

Fake news et délit de fausse nouvelle : la loi doit s’arrêter là où commencent les libertés

Les « fake news » ne datent pas d’hier ni le délit de fausse nouvelle. Mais Internet et les réseaux sociaux ont relancé les débats sur la lutte contre la « désinformation ». Or légiférer sans censurer relève d’une mission impossible, si l’on ne veut pas déstabiliser les fondements de
la démocratie.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

En anglais, fake signifie « faux » (ou « truqué »). Il s’agit donc de « fausses informations » ou, plus précisément, d’informations délibérément fausses dont la diffusion vise à induire en erreur. Cette stratégie de désinformation du public a été largement évoquée dans les médias, notamment à l’occasion des dernières élections présidentielles aux Etats-Unis comme en France.

Mensonges, calomnies, tromperies, …
Il a en effet été beaucoup question de « faux comptes russes » de publicités sur Facebook dont l’objectif étaient de véhiculer des fausses informations sur des sujets sensibles au moment de la campagne présidentielle de Donald Trump, ou encore de fausses nouvelles véhiculées sur les réseaux sociaux durant la campagne présidentielle d’Emmanuel Macron. Le sujet
a également été évoqué lors de la campagne du Brexit ou encore du référendum en Catalogne. Actuellement, si aucun texte de droit commun
ne prévoit de réprimer la diffusion de fausses nouvelles, plusieurs textes spéciaux visent le délit de fausse nouvelle. L’article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, les articles L.97, L.114 et L.117 du Code électoral, les article L.465-3-1 à L465- 3-3 du Code monétaire et financier ainsi que l’article L.443- 2 du Code de commerce sont autant de textes qui, bien qu’applicables dans des domaines spécifiques, renvoient tous à la notion de « fausse nouvelle » et présentent plusieurs traits communs : ils
ne posent aucune condition relative à l’auteur de la fausse nouvelle ; afin qu’une infraction puisse être qualifiée, ils exigent que la fausse nouvelle
ait fait l’objet d’une publication, une diffusion ou une reproduction ; enfin, ils emploient des termes tels que « informations mensongères », « bruits calomnieux », « nouvelles trompeuses ou destinées à tromper ».
Cependant, ces textes peuvent être difficiles à mettre en oeuvre, à l’instar
de l’article 27 précité de la loi de 1881 qui sanctionne d’une amende de 45.000 euros le fait d’avoir publié ou d’avoir relayé des informations créées et diffusées volontairement pour tromper le public. En effet, le texte prévoit que la « publication, la diffusion ou la reproduction » a été faite de
« mauvaise foi » et qu’elle est de nature à troubler la paix publique. Ces deux conditions constituent des obstacles importants pour contrer l’auteur de l’infraction qui ne manquera pas de faire valoir qu’il ne savait pas qu’il s’agissait d’une « fake news ». Quant aux hébergeurs, s’ils bénéficient d’un régime d’« irresponsabilité sauf », ils restent tenus de concourir à la lutte contre certaines infractions et, à ce titre, ils doivent mettre en place un dispositif de signalement. Mais cette obligation est circonscrite à des contenus qui relèvent de certaines catégories : l’apologie de crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et de leur apologie, l’incitation à la haine raciale, à la haine à l’égard des personnes
en raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap, ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences faites aux femmes, des atteintes à la dignité humaine. Le dispositif existant n’apparait donc pas adapté aux
« fake news ».
Devant l’ampleur du phénomène, certains acteurs du Web ont pris des initiatives telles que la mise en place d’outils de vérification de contenus,
à l’exemple de l’option proposée par Facebook aux internautes pour leur permettre de qualifier certains contenus comme de « fausses informations», ou encore ont rejoint le consortium Trust Project (1) qui réunit de grands éditeurs de presse pour lutter ensemble contre les « fake news ».

Du texte « Goulet » de 2017 …
Parallèlement, le constat de l’insuffisance du dispositif légal a conduit à plusieurs propositions de lois, notamment celle qui a été soumise par sénatrice Nathalie Goulet le 22 mars 2017 visant à sanctionner les personnes qui mettent à la disposition du public des contenus sans vérifier les sources. Ce texte (2) présumait que « l’éditeur, le diffuseur, le reproducteur, le moteur de recherche ou le réseau social ayant maintenu
à la disposition du public des nouvelles fausses non accompagnées des réserves nécessaires pendant plus de trois jours à compter de la réception du signalement de leur caractère faux » étaient de mauvaise foi. Certes, ils pouvaient rétablir leur bonne foi en démontrant qu’ils avaient fait des
« démarches suffisantes et proportionnelles aux moyens » dont ils avaient disposé pour vérifier le contenu litigieux. Le texte a déclenché une série
de critiques, la principale consistant à dénoncer la difficulté à délimiter la frontière entre la « fake news » et la liberté d’expression, la liberté d’opinion ou encore la liberté de la presse. Il en résultait un risque non négligeable d’atteinte à un droit fondamental et constitutionnel. Aucune suite n’a été donnée à cette proposition jusqu’en janvier 2018, date à laquelle le président de la République – à l’occasion de ses voeux à la presse (3) – a annoncé sa volonté de réguler la publication de contenus sur Internet au cours des périodes électorales.

… au texte « Macron » de 2018
Une proposition de loi relative à la lutte contre les fausses informations
(4) ainsi qu’un projet de loi organique (5) prévoient de modifier le code électoral pour encadrer les périodes pré-électorale et électorale, définies comme courant à compter de la date de publication du décret convoquant les électeurs, jusqu’à la fin des opérations de vote, soit sur une durée maximum de cinq semaines avant le scrutin. L’objectif du législateur est
de contrôler les canaux de diffusion des fausses nouvelles, tout particulièrement les réseaux sociaux et les sites web de partage de vidéo ainsi que les médias sous influence d’un Etat étranger. A cet effet, le dispositif se décline en trois grandes propositions :
D’une part, le texte met à la charge des plateformes une obligation de transparence accrue sur tous les contenus sponsorisés. Elles devront rendre publiques l’identité des annonceurs de contenus ainsi que celle des personnes qui contrôlent les annonceurs. Elles devront également publier les montants consacrés à ces contenus, afin d’identifier les contenus sponsorisés à des montants élevés.
D’autre part, dans le cas où une fausse nouvelle serait publiée sur Internet, il est proposé d’introduire une nouvelle action en référé devant
le juge civil pour faire cesser la diffusion massive et artificielle d’une fausse nouvelle. Cette procédure, inspirée du référé « LCEN » (6) qui permet à toute personne de demander au juge de prescrire aux hébergeurs ou aux fournisseurs d’accès toutes mesures propres à prévenir un dommage ou
à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne. Cette action pourrait être engagée à la demande du ministère public ou de toute personne ayant intérêt à agir, uniquement pendant la période pré-électorale et électorale. Le tribunal
de grande instance de Paris serait exclusivement compétent, eu égard
au caractère national de l’écho donné à la diffusion massive de fausses informations. Le juge pourra notamment ordonner de supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné ou encore de bloquer l’accès au site Internet.
Enfin, les pouvoirs du Conseil supérieur de l’audiovisuel (CSA) seront accrus afin de lutter contre toute tentative de déstabilisation par les services contrôlés ou influencés par des Etats étrangers. Si le régulateur considère qu’un Etat étranger propage une fausse nouvelle, il pourra
« suspendre » ou « révoquer » la convention d’un média sous influence de cet Etat. La commission de la Culture et la commission des Lois du Sénat
ont rejeté ces propositions le 26 juillet 2018, considérant que le dispositif continue de susciter les mêmes inquiétudes au regard de la censure, y ajoutant qu’en envisageant d’accroître la responsabilité des plateformes en cas de diffusion de fausses nouvelles, les principes posés dans la loi « LCEN » de 2004 sont susceptibles d’être remis en question. Il s’agit en effet d’une nouvelle exception, au même titre que pour les contenus terroristes ou pédopornographiques, au principe de limitation de responsabilité des intermédiaires techniques. Le projet de loi « Fausses nouvelles » devrait passer en commission mixte paritaire d’ici la fin de l’année.
On notera que, dans son avis du 19 avril 2018, le Conseil d’Etat partageait déjà l’opinion des sénateurs, en considérant que la mesure tendant au
« déréférencement d’un site diffusant ces fausses informations » apparaissait excessive, seuls devant être déréférencés les liens menant vers les pages diffusant ces informations.
Par ailleurs, le Conseil d’Etat proposait de prévoir que l’ordonnance du juge des référés soit rendue en premier et dernier ressort, afin de ne permettre que l’exercice d’un pourvoi en cassation dans des conditions de délai qui peuvent être précisées dans le texte réglementaire d’application de la future loi. Enfin, plus généralement, après avoir reconnu que« l’état actuel du droit, notamment en matière électorale, ne permet[tait] pas nécessairement de répondre à l’intégralité des risques induits par [les plateformes numériques] », a suggéré « d’harmoniser les différentes dispositions des propositions de loi pour ne retenir que la notion de “fausses informations” » et non celle de « fausses nouvelles », et a recommandé que « la lutte contre les fausses informations soit systématiquement circonscrite aux cas dans lesquels il est établi que
la diffusion de telles informations procède d’une intention délibérée de nuire ».

L’Europe contre « la désinformation »
Sur le plan européen, la Commission européenne a adopté des mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 (8) par un groupe d’experts de haut niveau pour lutter contre la désinformation en ligne. Dans sa communication « Lutter contre la désinformation en ligne : une approche européenne » (9), datée du 24 avril 2018, elle préconise ainsi un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits ou encore une démarche d’autorégulation des acteurs. @

* Christiane Féral-Schuhl est ancien bâtonnier du Barreau
de Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

C’est la fête à Nyssen ! La ministre de la Culture ne plaît pas à tout le monde et les dossiers sensibles s’accumulent

L’ancienne co-directrice des éditions Actes Sud fête ses un an – le 17 mai – comme ministre de la Culture, nommée par Emmanuel Macron car issue de la « société civile ». Mais les dossiers délicats voire sensibles s’amoncellent sur son bureau de la rue de Valois. Beaucoup se demandent si elle est à la hauteur.

Critiquée, brocardée, déconsidérée, décrédibilisée, … La discrète ministre de la Culture d’Emmanuel Macron passe de moins en moins inaperçue, et à son corps défendant. Depuis un an qu’elle est la locataire de la rue de Valois, Françoise Nyssen (photo) déçoit politiquement et médiatiquement – même si certains l’apprécient toujours. Issue de la « société civile », elle ne s’est pas vraiment imposée dans les deux gouvernements successifs d’Edouard Philippe. Nombreux sont ceux qui s’interrogent sur sa capacité à incarner la Culture et… la Communication,
ce dernier volet ayant d’ailleurs disparu du libellé de cette fonction ministérielle avec l’ère Macron.
Au moment où « l’exception culturelle » qui lui est chère doit s’adapter aux usages numériques, l’ancienne co-directrice des éditions Actes Sud semble déconnectée des nouveaux enjeux de son maroquin.

Maillon faible du gouvernement « Macron »
D’autant que les dossiers – tous impactés par le digital – s’accumulent sur son bureau, dont beaucoup sont emblématiques du quinquennat du jeune chef de l’Etat : réforme délicate de l’audiovisuel public, impasse des négociations sur la chronologie des médias, lutte contre le piratage avec « liste noire », création du Centre national de la musique (CNM), mis en place du « Pass Culture », polémique sur les déserts culturels, etc.
Officiellement, l’Elysée et Matignon accordent toute leur confiance à Françoise Nyssen. Mais en aparté, elle est considérée comme le maillon faible du gouvernement et son manque de charisme inquiète. Même auprès des mondes de la culture et des médias, son crédit est largement entamé – voire entaché d’approximations. « C’est une erreur de casting », peut-on même lire dans Libération qui lui a consacré sa pleine Une le 23 avril sous le titre de « Faut-il sauver Nyssen ? ». Le classement des ministres publié le 3 mai par Challenges la relègue à la douzième place, avec toutes ses notes en dessous de la moyenne… Son cabinet ministériel est Son cabinet ministériel est limité par l’Elysée à dix membres (1), ce qui n’est pas assez pour faire face aux multiples dossiers épineux et à risques, surtout quand six membres désignés au départ ont depuis été remplacés – avant un
« remaniement » du cabinet qui serait envisagé d’ici l’été prochain.

Audiovisuel, cinéma, musique, piratage, …
Les hésitations, maladresses et autres embarras (balbutiements et lacunes) de Françoise Nyssen – sans doute les défauts de ses qualités, diront ses soutiens – apparaissent comme problématiques pour le gouvernement qui lui avait confié l’un de ses plus gros dossiers prioritaires du quinquennat : la grande réforme de l’audiovisuel, dont les premières orientations seront présentées en juin, alors que le rapprochement des sociétés audiovisuelles publiques (France Télévisions, Radio France, Arte, France Médias Monde, TV5 Monde et l’INA) avait été l’une des promesses majeures de campagne présidentielle du candidat Macron l’an dernier (2).
Avant le remaniement du gouvernement il y a six mois, il avait été question de désigner un secrétaire d’Etat à la Communication pour épauler Françoise Nyssen dans cette réforme d’ampleur. Puis il y a eu en novembre 2017 cette fuite dans les médias à propos des pistes de réforme du ministère de la Culture et de l’audiovisuel public, un document de travail (3) révélé par Le Monde et intitulé « Contribution ministérielle aux travaux du CAP 2022 » (4). Y sont envisagés non seulement « le regroupement des sociétés [de l’audiovisuel public] au sein d’une holding pour aligner et dégager des synergies », mais aussi la suppression de la chaîne France Ô, l’arrêt de France 4 sur la TNT pour la limiter à la diffusion numérique, et le basculement de la radio Le Mouv de la FM à Internet. Sans parler du rapprochement de France 3 avec France Bleu, ou encore la fermeture de France 2 en régions.
Françoise Nyssen n’avait rien trouvé d’autre que de porter plainte contre X pour recèle de document et de se défaire en janvier de son directeur de cabinet, Marc Schwartz, lequel travaillait justement sur ce projet de réforme de l’audiovisuel. Ce dernier a été remplacé par Laurence Tison-Vuillaume, épaulée sur l’audiovisuel par Catherine Smadja et Isabelle Giordano (ex-Unifrance).
Depuis ce couac, Matignon a confié la réforme de l’audiovisuel public à Olivier Courson, conseiller Culture et Communication du Premier ministre. Tandis que l’Elysée surveille cette réforme complexe comme le lait sur le feu, via Claudia Ferrazzi, conseillère Culture et Communication du Président de la République, et Alexis Kohler, secrétaire général au
« Château ». Emmanuel Macron n’avait-il pas affirmé que l’audiovisuel public était « une honte » pour la France ? Sans parler de la députée « macroniste » (LREM), Aurore Bergé, qui, depuis le début de l’année, mène une mission sur « une nouvelle régulation de la communication audiovisuelle à l’ère numérique » (responsabilisation des plateformes vidéo, règles télévisuelles, rapprochement Hadopi-CSA, audiovisuel public, …). Bercy attendrait de cette réforme 500 millions d’euros d’économies !
La ministre de la Culture semble tenue à l’écart. Et comme un train peut
en cacher un autre : la réforme de la redevance audiovisuelle, depuis longtemps en réflexion en vue d’élargir l’assiette des téléviseurs aux autres écrans numériques, promet aussi d’être délicate à mener pour la locataire de la rue de Valois. Autre dossier épineux : la chronologie des médias, laquelle réglemente la sortie des films (monopole des quatre mois des salles obscures, VOD à l’acte, TV payante, SVOD, etc). Après d’énièmes négociations interprofessionnelles via la mission « Hinnin », ce fut à nouveau un constat d’échec dans la recherche d’un consensus – malgré un ultime projet présenté le 29 mars (5) pour adapter au numérique les fenêtres de diffusion inchangées depuis 2009. Faut d’accord au 12 avril, la patate chaude est arrivée dans les mains de Françoise Nyssen qui devrait
en passer par une loi. Les organisations du cinéma français, divisées sur la question, font pression sur la ministre pour qu’il y ait non seulement des engagements d’investissement dans les films de la part des plateformes vidéo si elles veulent avoir leur fenêtre plus tôt, mais aussi un plan gouvernemental de lutte contre le piratage sur Internet. Le dossier devient donc explosif, tandis que la ministre prévoit une « liste noire » des sites de piratage gérée par l’Hadopi.
Le projet de loi « Fake news » s’invite aussi rue de Valois. La musique occupe, elle aussi, une bonne place sur le bureau de Françoise Nyssen en surchauffe. Le Centre national de la musique (CNM), qui sera à cette industrie culturelle ce que le CNC est au cinéma, va être créé début 2019
– serpent de mer depuis 2011 (6). Après le rapport de Roch-Olivier Maistre, la ministre l’a annoncé le 25 avril au Printemps de Bourges et a confié une mission sur son mode de financement (budget annuel de 60 millions d’euros) aux députés (LREM) Emilie Cariou et Pascal Bois, lesquels rendront leurs conclusions d’ici début septembre.

Pass Culture : près de 500 millions d’euros
Dans son discours au Printemps de Bourges, François Nyssen a de nouveau esquissé le projet « Pass Culture » – autre promesse d’Emmanuel Macron – pour que les jeunes de 18 ans aient accès à toute sorte de contenus (musique, films, jeux vidéo, …) et d’activités ou événements culturels (cours de musique, musées, théâtre, concerts, festivals, …). Pourtant présenté comme prioritaire depuis près d’un an (7), ce futur pass ne semble pas convaincre la ministre qui peine à trouver son financement : 500 millions d’euros pour 850.000 jeunes (8). Par ailleurs, Françoise Nyssen est critiquée pour son plan « déserts culturels ». Adepte d’anthroposophie, la ministre ne peut que faire preuve de philosophie face à l’adversité. @

Charles de Laubier

Réformer la régulation de l’audiovisuel sans injurier la liberté de la presse

« Nous vivons une époque formidable », une époque où un président courageux envisage suffisamment tôt dans son mandat – une réforme d’ampleur qui porte
à la fois sur la réglementation audiovisuelle et sur les acteurs de l’audiovisuel public, tout en tentant de s’attaquer aux fake news.

Par Rémy Fekete, associé Jones Day

La réforme de la régulation audiovisuelle est une grande passion française. Le souhait du président Macron et de son gouvernement de procéder à une réforme en profondeur de la régulation de l’audiovisuel ne semble pas relever uniquement d’une tactique politique. La loi « Léotard » qui régit l’audiovisuel français depuis trente ans (1) a en réalité fait l’objet d’incessantes réformes, modifications et compléments au gré des impératifs européens et des priorités politiques du moment.

Déficit d’analyse extérieure sur la réforme
L’ampleur du chantier a mobilisé, sous l’autorité du « Château », Françoise Nyssen, ministre de la Culture, et son cabinet, l’ensemble des patrons des opérateurs publics,
le Conseil supérieur de l’audiovisuel (CSA), ainsi que la mise en place d’un Comité d’action publique 2022 (« CAP 2022 ») sous l’égide du Premier ministre. Ce souhait
fait écho à la nécessité créée par le véritable bouleversement des techniques et des usages, dû à l’irruption du numérique qui aboutit à des modes consommation délinéarisés des programmes audiovisuels et une segmentation des modes de consommation en fonction des catégories d’âges des populations. En clair, la télévision, et en particulier la télévision publique, est devenue celle d’adultes âgés (2). On peut d’ailleurs s’interroger si la profondeur des réformes nécessaires ne nécessiterait pas
un peu plus de « sang neuf » et extérieur à la sphère publique, afin d’échapper aux contingences qui ont réduit à peau de chagrin la plupart des réformes annoncées initialement comme ambitieuses depuis 1986 en matière d’audiovisuel (3).
Limitons-nous aux trois principaux enjeux de la réforme :
• Qu’est-ce que l’audiovisuel ?
Les médias les plus linéaires – stations de radio ou chaînes de télévision – font l’objet d’une consommation de plus en plus à la demande. Or, depuis les cinq dernières années, la distinction entre les différents types de médias audiovisuels a perdu de
sa pertinence en raison de la multiplication des tablettes et surtout des smartphones, associés à la production d’offres de plateformes en ligne dont l’utilisation ne connaît aucune rupture entre une consommation sur un écran de télévision, d’ordinateur ou
sur un téléphone. Le service de média audiovisuel est défini par la directive européenne « SMA » (4) comme « la fourniture de programmes dans le but d’informer, de divertir ou d’éduquer le grand public ». Cette directive faisait déjà la distinction entre les émissions télévisées et les services de médias audiovisuels, ces derniers pouvant notamment être non-linéaires. A l’inverse, les sites d’information en ligne peuvent pour certains faire l’objet d’une consommation pour l’essentiel en mode linéaire, leur valeur ajoutée portant essentiellement sur leur capacité à fournir des informations collant au plus près de l’actualité.
• A quoi sert le CSA ?
La création d’un régulateur de l’audiovisuel procède historiquement de la volonté de l’Etat de mettre en place un arbitre indépendant d’une activité, autrefois étatique et désormais soumis à concurrence. La Haute autorité de la communication audiovisuelle fut taxée de trop de dépendances à l’égard du pouvoir exécutif et a ainsi fait l’objet
d’un remplacement par le CSA (ex-Commission nationale de la communication et
des libertés). Celui-ci, depuis sa création en 1989, fait l’objet de nombreuses critiques, particulièrement vives en ce moment. On reproche ainsi tout à la fois au CSA : son déficit démocratique, les membres du collège étant nommés par le président de la République et le président de chacune des deux assemblées ; sa dépendance pratique sinon juridique à la politique définie par l’Elysée (5) ; son manque d’intervention dans
la régulation de l’audiovisuel (6) et, en même temps, un activisme tous azimuts, parfois taxé de moraliste ou de pudibond, lorsqu’il s’attaque à tel geste ou tel propos trop gaillard, manifestement vulgaire ou tout à fait déplacé.

Appel à un certain « lâcher prise »
En bref, à défaut d’être puissant, le CSA semble être devenu tatillon, et une remise
à plat complète de son rôle, de ses compétences, de sa constitution et de sa gouvernance semble appelée des vœux de tous. Faut-il pour autant s’illusionner
de pouvoirs factices ? Est-ce le CSA, autorité de régulation purement nationale, qui pourrait demain réguler les contenus sur Internet (7) ? Enfin, on ne saurait clore le chapitre du CSA sans évoquer son rôle en période électorale. A chaque fin de mandat, en effet, le calme habituel de la tour du quai André Citroën fait place à une étrange effervescence puisqu’une partie significative des moyens du CSA sont consacrés au comptage comparatif des temps de parole des candidats sur les chaînes françaises.
Au même moment, ces candidats paraissent sur les plateformes Internet et dans les médias internationaux, parfaitement repris en France, sans aucune contrainte. Certains appellent à un certain « lâcher prise », reconnaissant que la pluralité des sources d’information permet aujourd’hui aux citoyens un choix qui peut être éclairé.

Missions multiples de l’audiovisuel public
• Quel rôle pour l’audiovisuel public ?
La question est sur toutes les lèvres : à quoi sert la télévision publique si sa perception par les téléspectateurs diffère si peu de la télévision privée (8) ? Le secteur public de la communication audiovisuelle fait l’objet du « Titre III » de la loi « Léotard », aux termes duquel France Télévisions, Arte- France, la Chaîne Parlementaire, Radio France, l’Institut national de l’audiovisuel (Ina) sont soumis à tout un dispositif juridique spécifique (9). A force d’amendements législatifs, les parlementaires ont mis à la charge de l’audiovisuel public la mission de répondre, à peu près, à tous les travers
de la société française. Il est en particulier remarquable de constater le report sur les médias publics de missions traditionnellement dévolues à l’école – que l’Education nationale n’a pas su honorer. Les médias publics sont considérablement alourdis,
tant en termes de devoirs imposés par la loi, en effectifs (près de 18.000 salariés,
dont 9.840 pour France Télévisions), que par un budget si considérable qu’il devient aujourd’hui une faiblesse tant il attire les reproches (3,8 milliards d’euros, dont 2,5 milliards pour France Télévisions). Trop d’acteurs, trop de chaînes, trop de stations, trop de missions, trop de salariés et trop de ressources purement financières, tel est le constat. On s’attend donc, avant la fin du premier trimestre, aux premières orientations pour une refonte globale du secteur, en espérant qu’elle s’inscrive d’abord dans une redéfinition des rôles et des priorités, et n’envisage qu’en termes de conséquences la réduction des effectifs et la diminution drastique des budgets. Cette refonte des effectifs pourrait passer d’abord par un constat de carence du secteur privé (10).
• Une loi « fake news » : conforme à la constitution ?
Les dernières campagnes électorales, en particulier aux Etats-Unis, en Allemagne et
en France, ont donné lieu à un écho particulier dans la presse de chacun de ces pays d’une supposée manipulation de l’information et dissémination d’information fausse
par des médias. La verdeur de la réaction du président de la République, Emmanuel Macron, lors de la conférence de presse tenue avec le président russe au château de Versailles avait surpris. Mais le projet de loi « Fausses informations » (11), présenté il y a peu par le ministère de la Culture, fait passer le juriste de la surprise à la stupéfaction. La multiplication des médias et la dissémination de l’information au travers des réseaux sociaux ont abouti, sans surprise, à offrir une caisse de résonance démultipliée aux fausses rumeurs, aux informations erronées qui, de tout temps, ont pu être plus ou moins volontairement colportées. Le sujet est ancien et aux principes constitutionnels de liberté de communication (12) des limitations ont depuis l’origine été apportées.
En résumé, le projet de loi prévoit trois réformes également contestables. La première réforme tient à modifier le code électoral afin de permettre au juge du tribunal de grande instance, dans une procédure de référé, de prescrire « toutes mesures »
aux hébergeurs et fournisseur d’accès à Internet (FAI) afin de faire cesser la diffusion de fausses informations. On rappellera que le juge des référés est « le juge de l’évidence ». On ne peut que s’inquiéter de l’incapacité pratique d’un magistrat, dans une formation d’urgence, de statuer en quelques heures sur le fait de savoir si une information est fausse ou exacte.
La deuxième réforme donne un nouveau pouvoir au CSA dans des termes qui rappellent plus l’Union soviétique d’Arthur London (13) que la France « Start-up Nation » ! L’article 4 du projet de loi vise en effet le cas où un service audiovisuel « contrôlé par un Etat étranger ou sous l’influence de cet Etat (…) est susceptible de porter atteinte aux intérêts fondamentaux de la Nation ou participer à une entreprise de déstabilisation de ses institutions, notamment par la diffusion de fausses nouvelles ». Chacun de ces termes fera sans doute l’objet de critiques motivées, tant on peine à saisir sa pertinence dans notre écosystème à la fois pluriel et multi-connecté, dans lequel chaque citoyen
a accès à une multitude de sources d’informations et accepte de confier ses données personnelles à des opérateurs économiques globaux. Le projet de loi permet au CSA d’ordonner la suspension ou la résiliation unilatérale de la convention de tels services. Ce sera donc au régulateur de l’audiovisuel de déterminer si les nouvelles diffusées sont fausses ou exactes. On peut s’interroger sur la compétence et les moyens dont disposera le CSA dans cette nouvelle tâche.

Nouveau mécanisme de délation populaire
La troisième réforme de ce projet de loi « Fausses informations » met en place un nouveau mécanisme de délation populaire qui doit amener chacun à pouvoir disposer de dispositifs mis en place par les hébergeurs et les FAI leur permettant de porter à leur connaissance ce qu’il considère comme diffusion de fausse information. Ces derniers ont bien évidemment l’obligation d’en informer les autorités. Si une réforme courageuse de l’audiovisuel est en tout cas nécessaire, on aurait pu s’abstenir d’augmenter la difficulté de l’exercice par une atteinte aussi maladroite aux principes et aux modalités d’exercice de la liberté d’expression. @

Snapchat fait la distinction entre social et média pour mieux attirer annonceurs et éditeurs

Pour Snap qui édite Snapchat, le fonctionnement en mode « média social »
– où photos et vidéos des amis se mêlent à celles des contenus professionnels – a vécu. Ce mixte favorisaient les fake news et déplaisait aux éditeurs et annonceurs. En France, la nouvelle version est en place depuis le 13 février.

« En plus de nos efforts en cours pour faire croître le nombre de nos utilisateurs, la réalité augmentée, et les contenus, nous pensons que le nouveau design de notre application Snapchat nous donnera de bonnes bases pour faire évoluer notre activité. C’est pourquoi notre nouveau format sépare désormais “social” et “média”, résolvant ainsi beaucoup de problèmes qui surgissaient quand on mélange des amis avec les créateurs professionnels de contenus », a expliqué Evan Spiegel (photo), cofondateur et directeur général de Snap, lors d’une conférence téléphonique le 6 février, à l’occasion de la présentation des résultats annuels.

Ne pas mêler fake news et annonceurs
Cette décision de bien faire la distinction entre les contenus « sociaux » (de la famille
et des amis) et les contenus « médias » (des éditeurs et créateurs professionnels) a été prise il y a plusieurs mois, au moment où les fausses nouvelles battaient leur plein sur Internet. « Jusqu’alors, le média social mixait les photos et les vidéos provenant des amis avec des contenus d’éditeurs et de créateurs. Brouiller les lignes entre les créateurs professionnels de contenus et vos amis a été une expérience intéressante sur Internet, mais cela a provoqué quelques effets secondaires étranges (tels que les fake news) et nous a fait réaliser que nous avions à nous améliorer pour vos amis plutôt que juste nous exprimer nous-mêmes », avait déjà justifié Snap en novembre 2017 sur le blog de l’entreprise (1). Désormais, le nouveau Snapchat – installé notamment en France depuis le 13 février – sépare « social » de « média ». A gauche de l’écran, l’on retrouve les messages (chat), les « bitmoji » et les stories des amis. A droite de l’écran, les contenus de partenaires éditeurs avec l’espace Discover (Découvrir), la carte Snap Map pour localiser ses amis, ainsi que les stories publiques des médias et des influenceurs.
La société américaine Snap, qui veut attirer encore plus d’annonceurs et de partenaires média, entend ainsi dissocier le côté rendu plus personnalisé de Snapchat avec une page d’amis plus dynamique, du côté plus « public » avec la nouvelle page Discover des éditeurs et créateurs. « Séparer social de média nous permet de construire le meilleur moyen de communiquer avec les amis et le meilleur moyen de regarder de super contenus – tout en résolvant beaucoup de problèmes qui rongent Internet aujourd’hui », insiste encore la direction de Snap. C’est que cette start-up cotée à la Bourse de New York veut afficher de meilleures performances vis-à-vis des éditeurs
et des annonceurs publicitaires et comme Evan Spiegel commence à le voir : « Nous observons que le nombre d’utilisateurs quotidiens actifs qui regardent les stories sur Discover a progressé de 40 % sur la nouvelle version par rapport à l’ancienne. Nous constatons aussi des gains en termes de performances publicitaires, tant en termes de temps passé que d’engagement, ainsi qu’une augmentation générale de notre ARPU [en hausse de 46 % à 1,53 dollars en 2017, ndlr] comparé à l’ancien design ».
Discover, la plateforme des partenaires médias de Snap (2), est en quelque sorte sanctuarisée. En France, où elle a été lancée en septembre 2016, plus d’une douzaine d’éditeurs y sont présents : Le Monde, Le Figaro, Paris Match, L’Express, L’Equipe, l’AFP, MTV, Vogue, Society, Cosmopolitan, Konbini, etc. Au niveau mondial, Evan Spiegel a indiqué que Snap avait reversé pour 2017 « plus de 100 millions de dollars aux partenaires », soit près du double par rapport à l’année précédente. Cela représente plus de 12 % de son chiffre d’affaires qui s’est élevé l’an dernier à 824,9 millions de dollars (+100 % sur un an). Malgré des pertes nettes chroniques, Snap
vise toujours à terme la rentabilité. Du succès ou de l’échec du nouveau Snapchat dépend l’avenir de l’entreprise. Valorisé 21,4 milliards de dollars (au 22-02-18), Snap
a perdu de la valeur depuis son introduction il y aura un an en mars (3). Le chinois Tencent n’en a cure : il a augmenté l’an dernier sa participation au capital, actuellement autour de 10 %.

En France, 13 millions de « snapchatters »
Parmi les Millennials, qui constituent le gros bataillon des utilisateurs de Snapchat avec 12 minutes en moyenne par jour en 2017 – au détriment de Facebook (9 mn/jour), selon Médiamétrie (4) –, beaucoup ont exprimé leur désarroi ou leur perplexité, voire leur agacement envers cette nouvelle présentation. Selon la dernière mesure « Internet global » de Médiamétrie (ordinateur et/ou smartphone et/ou tablette), Snapchat totalise en France plus de 13 millions de visiteurs uniques par mois – sur 187 millions de
« snapchatters » revendiqués par Snap dans le monde, Etats-Unis en tête. @

Charles de Laubier

La Commission européenne plaide pour le respect du droit international dans l’affaire «Microsoft Irlande»

Dans l’affaire du stockage des données en Irlande qui oppose Microsoft au gouvernement américain, la Commission européenne a déposé un mémoire devant la Cour suprême des Etats-Unis dans lequel elle plaide pour une application des principes de « territorialité » et de « courtoisie internationale ». Explications.

Par Winston Maxwell, avocat associé, Hogan Lovells

Le contentieux qui oppose depuis 2014 la société Microsoft et
le gouvernement américain à propos des e-mails stockés en Irlande est maintenant devant la Cour suprême des Etats-Unis. Ce litige concerne la portée éventuellement extraterritoriale des réquisitions judiciaires américaines dans le cadre d’enquêtes pénales. La police américaine avait demandé à Microsoft de livrer une copie de certains e-mails échangés par une personne soupçonnée d’activités criminelles.

Règles de bon voisinage entre Etats
Les e-mails étant stockés en Irlande et sous le contrôle de la société Microsoft Irlande, la firme de Redmond (Etat de Washington) s’était opposée à la réquisition, en indiquant qu’il fallait passer par les procédures de coopération internationale en matière d’enquêtes pénales. La Cour d’appel de Manhattan avait donné raison en 2016 à Microsoft, en indiquant que la loi fédérale sur les réquisitions était silencieuse sur l’éventuelle portée extraterritoriale des réquisitions et qu’une telle portée ne pouvait
pas être déduite de manière implicite. Le gouvernement américain avait porté l’affaire devant la Cour suprême des Etats-Unis. C’est là qu’intervient la Commission européenne, qui, en décembre 2017, a déposé un mémoire (amicus brief) pour éclairer la Cour suprême sur certains aspects de droit international (1). La Commission européenne plaide pour une application du principe de la territorialité et du principe de courtoisie internationale. Ces principes revêtent une importance croissante dans toutes les affaires concernant la régulation des activités numériques, ces activités étant par nature transnationales.
Le droit international part du principe que chaque Etat doit respecter la souveraineté des autres Etats. Ce respect se manifeste par le respect des eaux territoriales et des frontières physiques entre Etats. La violation d’une frontière d’un autre Etat est une violation du droit international. Ce respect se manifeste également par une prise en considération des lois en vigueur dans les autres pays. Ces principes de « bon voisinage » entre Etats se traduisent par les deux concepts de droit international évoqués par la Commission européenne, à savoir : le principe de « territorialité » et
le principe de « courtoisie internationale ». Le principe de territorialité signifie que les lois d’un Etat s’appliquent à l’intérieur du territoire de l’Etat en question et non sur le territoire d’un pays tiers. Il existe des exceptions à ce principe, mais celles-ci sont extrêmement limitées (il s’agit de cas d’occupation militaire, par exemple, d’un territoire étranger). La courtoisie internationale signifie que lorsqu’une loi produit des effets dans un autre Etat, le premier Etat doit prendre en considération les lois de cet autre Etat afin de minimiser les conflits avec les lois de cet autre Etat.
Appliqués dans l’affaire Microsoft, ces principes impliqueraient, en premier lieu, que
la police américaine ne peut pas effectuer une perquisition sur le territoire de l’Irlande, puisque le pouvoir de la police et l’étendue territoriale de la loi américaine s’arrêtent
aux frontières des Etats-Unis. En second lieu, la courtoisie internationale commanderait que lorsqu’un juge américain ordonne à Microsoft d’extraire des données et de les communiquer à la police aux Etats-Unis, le juge doit se demander si cette action serait en violation des lois irlandaises applicables. Si c’est le cas, le juge doit chercher une voie qui éviterait un tel conflit. La Commission européenne indique qu’il existe des mécanismes d’entraide internationale en matière d’enquête policière et que le règlement général sur la protection des données à caractère personnel (RGPD) de 2016 (2) ne s’oppose pas à des réquisitions de ce type, à condition d’utiliser la convention internationale. La Commission européenne cite le considérant 110 du RGPD, qui prévoit que l’application extraterritoriale de réquisitions judiciaires peut constituer une violation du droit international et qu’une entreprise établie en Europe
doit donc appliquer les lois locales.

Territorialité et activités de renseignement
Le groupe « Article 29 » (G29), qui réunit les « Cnil » européennes, préconise également un respect strict des règles de droit international afin de ne pas créer des conflits avec des lois d’autres pays (3). Les pays signataires de la Convention du Conseil de l’Europe sur la cybercriminalité (4) tentent justement de trouver un terrain d’entente afin de faciliter l’échange de données au niveau international sans violer les principes de territorialité et de courtoisie internationale (voir encadré ci-dessous). L’affaire Microsoft concerne en outre les enquêtes pénales. Le droit international est également mis à l’épreuve par les activités de renseignement. Jusqu’à 2015, il n’existait pas en France de cadre légal pour la conduite des activités de renseignement à l’étranger.

Contenus illicites et fake news
La loi française sur les activités de renseignement de 2015 (5) a créé un cadre pour ces activités. Après censure du Conseil constitutionnel, la loi a été modifiée afin de donner plus de garanties aux individus ciblés par ces activités de surveillance extraterritoriales. Cependant, le niveau des garanties accordées par la loi française aux individus résidant à l’étranger est plus faible que les garanties accordées aux résidents et citoyens français. Deux poids, deux mesures : un résidant espagnol bénéficie de moins de garanties qu’un résidant français en matière de surveillance. Cette différence de traitement surprend, car ni la Charte européenne des droits fondamentaux (adoptée le 7 décembre 2000) ni la Convention européenne des droits de l’homme (signé le 4 novembre 1950) ne prévoient une quelconque différence de protection en fonction de la résidence ou de la nationalité de la personne.Les règles de droit international jouent un rôle important dans la lutte contre des contenus illicites sur Internet. Chaque pays a sa propre définition de contenus illicites, fixée en fonction du contexte culturel et historique du pays. Dans certains pays, des contenus blasphématoires sont interdits. Dans d’autres, il s’agit des contenus qualifiés de propagande homosexuelle. Les conflits entre lois nationales sont fréquents, comme en témoigne l’affaire Yahoo en 2000 concernant la vente d’objets nazis (6). La mise aux enchères d’objets nazis n’est pas interdite aux Etats- Unis et serait même protégée par la liberté d’expression. En revanche, ces mêmes contenus sont considérés en France comme outrepassant la liberté d’expression. Les plateformes Internet étant globales, il serait tentant pour un juge national d’ordonner le retrait pur et simple du contenu afin qu’il ne soit plus visible où que ce soit dans le monde. Cependant, une telle approche serait en contradiction avec les principes de droit international mis en avant par la Commission européenne dans l’affaire Microsoft. Cela ouvrirait la voie à une surenchère internationale où chaque pays essayerait d’appliquer ses propres normes en matière de contenus au monde entier, en contradiction totale avec les des règles de courtoisie internationale et de territorialité. Depuis l’affaire Yahoo, les juges nationaux font justement preuve de prudence lorsqu’ils ordonnent le blocage de contenus sur Internet, en limitant les effets de leurs décisions au territoire national. Le Tribunal de grande instance de Paris a reconnu que Yahoo, par un système de géo-blocage, pouvait tout simplement bloquer l’accès au contenu pour les utilisateurs situés en France, ce qui est une manière d’appliquer la loi française à l’intérieur du territoire national sans créer de conflit avec la loi américaine. Même si le pouvoir du juge s’arrête aux frontières nationales, les actions d’autorégulation, notamment par les plateformes, peuvent avoir une dimension transnationale. La Commission européenne, à l’origine de la création d’un groupe de haut niveau sur les fake news (High Level group on Fake News) qui tient sa réunion inaugurale en janvier 2018 (7), privilégie l’angle de l’autorégulation (self-regulation) et du partage des bonnes pratiques (shared good practices) pour le phénomène du fake news (8). Le Conseil d’Etat préconise, quant à lui, l’adoption d’une convention internationale relative aux libertés fondamentales et aux principes de gouvernance d’Internet, ainsi que la mise
en place de dispositifs fondés sur l’autorégulation des opérateurs, à travers la mise
en conformité (compliance) et leur responsabilisation (accountability) (9).

Atténuer les contraintes par l’autorégulation
Le respect du droit international impose des contraintes, et notamment l’utilisation de procédures de coopération internationale. Certaines de ces contraintes peuvent être atténuées grâce à des mécanismes efficaces d’autorégulation en matière de contenus illicites sur Internet. @

ZOOM

Convention de Budapest : vers une coopération internationale renforcée
La Convention de Budapest sur la Cybercriminalité a été ouverte à la signature
en 2001. Elle a été complétée en 2013 par un « Protocole additionnel relatif à l’incrimination d’actes de nature raciste et xénophobe commis par le biais de systèmes informatiques » (https://lc.cx/gWWx). « Alors que prospèrent la cybercriminalité et les autres infractions entraînant des preuves électroniques sur des systèmes informatiques, et que ces preuves sont de plus en plus stockées sur des serveurs hébergés dans des juridictions étrangères, multiples, fluctuantes ou inconnues, autrement dit dans le cloud, les pouvoirs des services répressifs sont limités par les frontières territoriales », a souligné le Conseil de l’Europe le 2 novembre 2017 en vue de renforcer la coopération internationale sur la cybercriminalité et les preuves électroniques. Les Parties à la Convention de Budapest, à savoir 56 Etats auxquels
14 autres ont été invités à y adhérer, ont organisé de 2012 à 2014 un groupe de travail sur l’accès transfrontière aux données, puis de 2015 à 2017, un groupe sur les preuves dans le cloud. Il s’agit notamment de négocier d’ici à décembre 2019, un deuxième protocole additionnel à la Convention de Budapest sur une coopération internationale renforcée. @

Désinformations, rumeurs infondées, ragots, … A quand de vraies nouvelles sur les fake news ?

Lutter contre la désinformation suppose de responsabiliser les acteurs impliqués dans sa propagation, depuis la source d’une fake news, en passant par les algorithmes sacralisant la popularité des contenus, jusqu’à l’internaute qui la relaie – sciemment ou non. Et il faut adapter le cadre juridique.

(Cet article juridique est paru le 18 décembre 2017 dans le n°180 de Edition Multimédi@. Le 3 janvier 2018, lors de ses vœux à la presse, Emmanuel Macron a annoncé un futur projet de loi contre les « fausses informations ».)

Par Alexandre Euverte et Etienne Drouard (photo), cabinet K&L Gates

« Johnny Hallyday a trouvé la mort aujourd’hui à l’âge de 74 ans ». Cette affirmation ne correspond pas à la triste nouvelle qui a endeuillé la France à l’aube du 6 décembre 2017. C’est la réponse que donnait l’application Siri d’Apple le 30 novembre 2017 si vous lui demandiez : « Comment va Johnny ? ». Cette information fausse, relayée par Siri, faisait suite à une modification trompeuse de la page Wikipedia du légendaire chanteur, mise en ligne par un individu anonyme annonçant son décès de façon prématurée.
Si Internet forme aujourd’hui un forum d’échanges global favorisant l’expansion de la liberté d’expression, il est impossible d’ignorer les dérives induites par la vitesse et l’effervescence des contenus. C’est le cas des fake news, ces actualités créées intentionnellement pour tromper le public et lui fournir une représentation erronée de la réalité ou une dénaturation des faits, souvent utilisées à des fins malveillantes.

Loi de 1881 et fake news du XXIe siècle
Au-delà de la désinformation de masse, les fake news nourrissent des théories conspirationnistes, en augmentation en France, ainsi que les propagandes les plus nauséabondes. L’impulsion des réseaux sociaux permet de donner une ampleur inédite aux fake news, parfois relayées par des médias institutionnels ou historiques, voire par des responsables politiques. Lutter efficacement contre ce « cancer » de la désinformation exige de responsabiliser tous les acteurs impliqués dans sa propagation, depuis la source d’une fake news, en passant par les algorithmes de classement basés sur la popularité des contenus, jusqu’à l’internaute qui relaie la désinformation – sciemment ou à son insu – à travers l’audience de masse des réseaux sociaux. Il est nécessaire d’adapter notre cadre juridique et d’inciter les acteurs les plus impliqués à privilégier la vérité par rapport à la popularité. Or notre arsenal législatif Continuer la lecture