Pourquoi le groupe de médias allemand Axel Springer sort son joker « KKR » face aux GAFAM

C’est le plus grand groupe de médias en Europe. Créé il y a 73 ans par Hinrich Springer et son fils Axel, le groupe Axel Springer réalise aujourd’hui les trois-quarts de son chiffre d’affaires dans le numérique, lequel contribue pour près de 90 % à sa rentabilité. Mais la pression des GAFAM se fait plus forte.

« Le journalisme est l’âme et l’esprit de la société Axel Springer. Notre mission : l’établissement réussi du journalisme indépendant dans le monde numérique. Nous voulons devenir l’éditeur numérique le plus prospère au monde. (…) Environ 16.000 employés travaillent avec passion chez Axel Springer SE : l’éditeur leader du digital en Europe ». Le ton est donné sur le site web Axelspringer.com. Le groupe allemand – encore détenu à 42,6 % par Friede Springer (photo), la veuve du cofondateur Axel Springer (1), et à 9,8 % par les petits-enfants de ce dernier (Axel Sven et Ariane) – est « actif dans plus de 40 pays dans le monde, avec des holdings et des licences sur six continents ». Pourtant, le journalisme – si indépendant soit-il – est passé au second plan sur fond de déclin de la presse papier, derrière les petites annonces.

Impacté par la « taxe GAFA » en France
Ce ne sont plus ses quotidiens allemands Die Welt (fondé en 1946) et Bild (lancé en 1952) que le plus grand conglomérat médiatique européen met en avant, mais désormais ses sites web de petites annonces – les fameuses classifieds : SeLoger (numéro un en France de l’immobilier en ligne), Logic- Immo (également leader en France), LaCentrale (là aussi présent en France dans l’automobile), Immowelt (immobilier en Allemagne), Autobazar.eu (en Slovaquie), ou encore StepStone, Jobsite et Totaljobs (dans les annonces d’emplois). La presse n’est finalement plus vraiment le leitmotiv du groupe allemand, basé à Berlin, mais bien les petites annonces en ligne. Ces classifieds sont devenues son premier relais de croissance et ont généré à elles seules 41 % du chiffre d’affaires d’Axel Springer en 2018, soit 1,3 milliard d’euros sur le total des revenus du groupe (plus de 3,1 milliards), et même 61 % de son résultat brut d’exploitation. Les titres de presse de référence Die Welt et Bild devenant marginaux financièrement dans cette stratégie du « total-digital », c’est ce marché des petites annonces que va  Continuer la lecture

Ce que dit l’Europe sur le rachat de Sky par Comcast

En fait. Le 22 septembre, le câblo-opérateur américain Comcast – propriétaire des studios de cinéma Universal Pictures et DreamWorks ainsi que des chaînes NBC, CNBC, Syfy ou E! – a remporté les enchères sur Sky, l’opérateur britannique de télévision. L’Europe n’y trouve rien à redire.

En clair. La Commission européenne n’a pas attendu les enchères pour autoriser,
dès le 15 juin dernier, le rachat « sans conditions » de Sky par Comcast : « Pas de problème de concurrence en Europe », a-t-elle assuré. Bruxelles rendra aussi « d’ici le 19 octobre » sa décision sur le projet de rachat des actifs de Fox aux Etats-Unis par le groupe Disney, lequel a déjà obtenu le feu vert des autorités antitrust américaines, à condition de se séparer d’une vingtaine de chaînes sportives de Fox (1). Bien qu’elle
ne participait pas à ces enchères exceptionnelles opposant à Londres Comcast à Fox pour s’emparer de Sky, la Walt Disney Compagny est la grande perdante en Europe.
Le magnat des médias Rupert Murdoch voulait lui céder – pour un total de 71 milliards de dollars – non seulement, aux Etats- Unis, ses studios de cinéma, ses chaînes de télévision axées divertissement, sa part dans Hulu, mais aussi Sky en Europe.
Ce bouquet de télévision britannique est présent au Royaume- Uni, en Irlande, en Allemagne, en Autriche et en Italie, avec 23 millions d’abonnés (2). Maintenant que Comcast a remporté Sky pour 33,4milliards d’euros, auxquels s’ajoutera le rachat des 39 % (valorisés 12,8milliards d’euros) que Fox a annoncé – le 26 septembre – vouloir céder dans Sky, il reste quand même à Disney les actifs de Fox aux Etats-Unis qu’a tenté en vain d’acquérir Comcast cet été. Rupert Murdoch, lui, cherche ainsi à recentrer son nouveau « Fox » sur l’information avec ses journaux (Wall Street Journal, New York Post, …), ses chaînes de télévision Fox News et Fox Business (3). Depuis deux ans, le magnat des médias australo-américain cherchait à s’emparer des 61 % du capital de Sky – dont Fox détenait déjà 39 %. Mais, conformément à la décision prise en avril par la commission des OPA britannique, Disney aurait eu l’obligation de faire une offre sur la totalité de Sky en Europe s’il réussissait à acquérir les actifs de Fox aux Etats-Unis. Car le projet d’acquisition de Sky par Fox était mal accueilli au Royaume-Uni (« pas dans l’intérêt du public »), la famille Murdock y étant déjà très implantée avec le groupe News Corp, lequel publie le tabloïd The Sun, le quotidien The Times ou encore The Sunday Times. En revanche, l’offre de Comcast sur Sky ne posait pas de problème aux yeux des autorités britanniques et européennes. Les actionnaires de Sky ont jusqu’au 11 octobre pour se prononcer en faveur de Comcast. @

Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

L’intelligence artificielle (IA) – qui regroupe plusieurs technologies dont l’apprentissage machine (ou apprentissage automatique, en anglais machine learning) – est
une forme avancée de logiciel.
Un logiciel est simplement un ensemble de programmes destiné à faire fonctionner un système informatique. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut-il traiter l’IA différemment ?

Bon équilibre entre sécurité, prix et utilité
Examinons d’abord la question de la responsabilité civile. Sur le plan économique, les règles de responsabilité civile sont destinées à encourager le déploiement de nouvelles technologies, tout en s’assurant que ces technologies s’entourent de mesures de sécurité adéquates. Si les règles de responsabilité sont trop strictes, certaines technologies utiles pour la société ne seront pas déployées. Si les règles de responsabilité sont trop laxistes, la technologie créera des dommages pour la population dépassant largement les bénéfices de la technologie. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologie utile mais relativement dangereuse car responsable de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmenterait sensiblement son prix ! Comme pour la voiture, le défi pour l’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système d’IA – par exemple, un constructeur automobile ou une banque – sera incitée par les règles de responsabilité civile à s’assurer de la sécurité du système. L’une des particularités des systèmes d’apprentissage machine est leur utilisation de données d’entraînement. Le concepteur du modèle d’apprentissage fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit-il d’un défaut dans le modèle d’origine, ou est-ce que l’anomalie provient des données d’apprentissage de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système d’IA de préciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabilité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligent grâce aux données d’entraînement ; le propriétaire des données d’entraînement pourrait donc exiger une rémunération. Les contrats devront également prévoir des dispositions pour garantir que le modèle amélioré ne peut pas indirectement révéler des données confidentielles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraînement. Entre les entreprises, la plupart des questions de responsabilité seront régulées par contrat. Les décisions d’un système d’apprentissage automatique sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’application des règles de responsabilité civile et pour la régulation en général – les tribunaux, experts et régulateurs doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabilité à l’acteur approprié. De nombreux travaux sont actuellement consacrés aux problèmes de la transparence et de l’« auditabilité » des algorithmes, à l’« explicabilité » et à la responsabilisation (accountability) des décisions IA (1). Ces travaux ne font pas consensus. Sur le thème de la transparence et de l’auditabilité des algorithmes, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétaire qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparent et audité de manière à découvrir l’origine des erreurs,
et à pouvoir les corriger. La chancelière d’Allemagne, Angela Merkel, a récemment plaidé pour la transparence des algorithmes.

L’Europe veut de la transparence
En Europe, la transparence est également au cœur du règlement général sur la protection des données (RGPD) qui énonce que pour les décisions automatisées basées sur des données personnelles et qui créent des effets juridiques, les individus ont droit à « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement ». Le deuxième camp considère que l’idéal de transparence n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithmes sophistiqués (réseaux de neurones), et d’autre part, que rendre transparents les algorithmes menacerait à terme les investissements et briserait les secrets. En France, la Commission nationale de l’informatique et des libertés (Cnil) a semble-t-il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithmes. Sur le thème de la discrimination ensuite, les débats également sont animés.

Secret, discrimination et responsabilité
Des travaux récents aux Etats-Unis ont montré que des algorithmes étaient biaisés envers certaines catégories de personnes, et conduisaient donc à des discriminations. L’originalité du préjudice vient cependant d’un problème nouveau lié à l’IA : les algorithmes ont appris à discriminer à partir de données d’entraînement qui étaient biaisées, ou par simple association
de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc.
Les algorithmes n’ont pas intentionnellement discriminé : dès lors qui est responsable ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimination (non-intentionnelle) sans un accès à l’algorithme ?
Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologie IA a produit le résultat ? Dernière question liée au cas particulier d’un algorithme causant une discrimination : comment corriger une discrimination sur le genre, par exemple, s’il est impossible de collecter des informations personnelles sur le genre (du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut-il créer une personnalité juridique pour les systèmes d’IA ? Pour que
la responsabilité civile puisse fonctionner, il faut identifier une personne responsable, et cette personne devra disposer de suffisamment de ressources ou d’assurances pour dédommager les victimes. En matière d’IA, la personne responsable sera généralement l’entreprise qui exploite le système – la banque ou le constructeur automobile par exemple. Cette personne sera généralement responsable en première ligne, et se retournera ensuite contre ses fournisseurs du système IA en amont. L’entreprise exploitante sera généralement assurée contre les risques de responsabilité civile, et vérifiera que ces fournisseurs en amont le sont également. La création d’une personnalité juridique pour les systèmes d’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilité de la personne morale responsable, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétaire du navire sera généralement insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuellement la recherche d’autres personnes morales responsables à travers des théories de responsabilité indirecte (vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de l’IA ? Deux points de vue s’opposent. Selon le premier point de vue, l’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économiques et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateurs sectoriels. Selon l’autre point de vue, les risques de l’IA sont étroitement liés à chaque type d’exploitation, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de l’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques
de l’IA dans les voitures autonomes.
Un super-régulateur de l’IA ne rajouterait rien par rapport aux régulateurs sectoriels spécialisés, et pire, créerait une couche de régulation potentiellement en friction avec la régulation sectorielle. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologies en mouvement. Comme un médicament, une régulation peut créer des effets secondaires imprévus (2). La régulation de l’Internet a évolué de manière progressive en s’appuyant sur la législation existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligence artificielle »,
il faudrait privilégier une série d’améliorations de la réglementation existante. Les normes ISO (3) en matière de sécurité des véhicules sont déjà en cours de modification pour intégrer l’IA (4). Le régulateur américain de la santé, la Food & Drug Administration (FDA), a développé des procédures pour homologuer des dispositifs médicaux utilisant l’IA (5). Le seul problème lié à cette approche sectorielle est l’apparition de risques cumulatifs pour la société qui échapperaient à la vigilance des régulateurs sectoriels. Est-ce que la généralisation de l’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutions démocratiques ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateurs sectoriels.

Observatoire des effets de l’IA sur la société ?
Un récent rapport de la fondation World Wide Web (6) prend l’exemple
des « fake news » propagées à travers les réseaux sociaux : quelle structure faut-il mettre en place pour changer les incitations des acteurs à communiquer des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsables ? La Commission européenne favorise en premier lieu des solutions d’auto-régulation pour limiter l’impact de la désinformation sur la société. La surveillance de ce type de risque plus diffus pourrait être confiée à une institution dédiée – une sorte d’observatoire des effets de l’IA sur la société. L’objectif de cette institution serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut-il définir les indices ! @

Projet de directive « Droit d’auteur » : revirement !

En fait. Le 12 septembre, en séance plénière à Strasbourg, les eurodéputés ont finalement adopté – par 438 voix pour, 226 voix contre et 39 abstentions – le projet de directive sur « le droit d’auteur dans le marché unique numérique ». Alors qu’ils l’avaient rejeté 15 juillet dernier. Le texte a été amendé.

En clair. « Malgré une campagne de lobbying très forte, menée par les géants d’Internet, le Parlement européen compte désormais une majorité pour soutenir ce besoin de protéger le principe d’une rémunération équitable pour les créateurs européens », s’est félicité à l’issue du vote
Axel Voss, le rapporteur de la « proposition de directive sur le droit d’auteur dans le marché unique numérique » (1). Pour la majorité des 703 eurodéputés qui ont pris part au vote ce 12 septembre, soit 62,3 % ayant voté pour, « les géants de la technologie doivent partager les recettes avec les artistes et journalistes ». Quel revirement depuis le précédent vote du 5 juillet ! Ce jour-là, à Strasbourg également, une majorité – certes limitée (50,7 % pour, sur 627 votants) – avait en effet rejeté cette réforme controversée par crainte d’un risque de filtrage généralisé de l’Internet (2). Objet de polémique et d’une âpre bataille des lobbies entre industries culturelles et géants du Net, l’article 13 introduit une responsabilité des plateformes numériques – de YouTube à Facebook, en passant par Twitter ou encore Dailymotion – vis-à-vis des contenus (musiques, films, photos, …) qu’elles hébergent et mettent en ligne, afin de renforcer la lutte contre le piratage d’œuvres sur Internet.
Quant à l’article 11, qui a fait aussi l’objet d’un intense lobbying des éditeurs et agences de presse, il prévoit sous la forme de « droit voisin » une rémunération des articles et dépêches utilisés par les Google News, Yahoo News et autres agrégateurs d’actualités (lire p. 5).
Face aux inquiétudes, le texte a été amendé pour « exclure du champ d’application les petites et micro-plateformes ou agrégateurs, afin d’encourager les start-ups et l’innovation ». Le texte précise d’ailleurs que les encyclopédies en ligne non commerciales telles que Wikipédia ou des plateformes de logiciels libres comme GitHub seront « automatiquement exclu[es] de l’obligation de se conformer aux règles de droit d’auteur ». Cette version corrigée du projet de directive vise aussi à protéger la liberté d’expression qui caractérise Internet. Ainsi, « le simple partage d’hyperliens vers des articles, ainsi que de “mots isolés” pour les décrire, sera libre de toute contrainte de droit d’auteur ». Place maintenant au trilogue (3) qui devra déboucher – avant les élections européennes de mai 2019 (23- 26) ? – sur un texte de compromis. @

Fake news et délit de fausse nouvelle : la loi doit s’arrêter là où commencent les libertés

Les « fake news » ne datent pas d’hier ni le délit de fausse nouvelle. Mais Internet et les réseaux sociaux ont relancé les débats sur la lutte contre la « désinformation ». Or légiférer sans censurer relève d’une mission impossible, si l’on ne veut pas déstabiliser les fondements de
la démocratie.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

En anglais, fake signifie « faux » (ou « truqué »). Il s’agit donc de « fausses informations » ou, plus précisément, d’informations délibérément fausses dont la diffusion vise à induire en erreur. Cette stratégie de désinformation du public a été largement évoquée dans les médias, notamment à l’occasion des dernières élections présidentielles aux Etats-Unis comme en France.

Mensonges, calomnies, tromperies, …
Il a en effet été beaucoup question de « faux comptes russes » de publicités sur Facebook dont l’objectif étaient de véhiculer des fausses informations sur des sujets sensibles au moment de la campagne présidentielle de Donald Trump, ou encore de fausses nouvelles véhiculées sur les réseaux sociaux durant la campagne présidentielle d’Emmanuel Macron. Le sujet
a également été évoqué lors de la campagne du Brexit ou encore du référendum en Catalogne. Actuellement, si aucun texte de droit commun
ne prévoit de réprimer la diffusion de fausses nouvelles, plusieurs textes spéciaux visent le délit de fausse nouvelle. L’article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, les articles L.97, L.114 et L.117 du Code électoral, les article L.465-3-1 à L465- 3-3 du Code monétaire et financier ainsi que l’article L.443- 2 du Code de commerce sont autant de textes qui, bien qu’applicables dans des domaines spécifiques, renvoient tous à la notion de « fausse nouvelle » et présentent plusieurs traits communs : ils
ne posent aucune condition relative à l’auteur de la fausse nouvelle ; afin qu’une infraction puisse être qualifiée, ils exigent que la fausse nouvelle
ait fait l’objet d’une publication, une diffusion ou une reproduction ; enfin, ils emploient des termes tels que « informations mensongères », « bruits calomnieux », « nouvelles trompeuses ou destinées à tromper ».
Cependant, ces textes peuvent être difficiles à mettre en oeuvre, à l’instar
de l’article 27 précité de la loi de 1881 qui sanctionne d’une amende de 45.000 euros le fait d’avoir publié ou d’avoir relayé des informations créées et diffusées volontairement pour tromper le public. En effet, le texte prévoit que la « publication, la diffusion ou la reproduction » a été faite de
« mauvaise foi » et qu’elle est de nature à troubler la paix publique. Ces deux conditions constituent des obstacles importants pour contrer l’auteur de l’infraction qui ne manquera pas de faire valoir qu’il ne savait pas qu’il s’agissait d’une « fake news ». Quant aux hébergeurs, s’ils bénéficient d’un régime d’« irresponsabilité sauf », ils restent tenus de concourir à la lutte contre certaines infractions et, à ce titre, ils doivent mettre en place un dispositif de signalement. Mais cette obligation est circonscrite à des contenus qui relèvent de certaines catégories : l’apologie de crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et de leur apologie, l’incitation à la haine raciale, à la haine à l’égard des personnes
en raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap, ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences faites aux femmes, des atteintes à la dignité humaine. Le dispositif existant n’apparait donc pas adapté aux
« fake news ».
Devant l’ampleur du phénomène, certains acteurs du Web ont pris des initiatives telles que la mise en place d’outils de vérification de contenus,
à l’exemple de l’option proposée par Facebook aux internautes pour leur permettre de qualifier certains contenus comme de « fausses informations», ou encore ont rejoint le consortium Trust Project (1) qui réunit de grands éditeurs de presse pour lutter ensemble contre les « fake news ».

Du texte « Goulet » de 2017 …
Parallèlement, le constat de l’insuffisance du dispositif légal a conduit à plusieurs propositions de lois, notamment celle qui a été soumise par sénatrice Nathalie Goulet le 22 mars 2017 visant à sanctionner les personnes qui mettent à la disposition du public des contenus sans vérifier les sources. Ce texte (2) présumait que « l’éditeur, le diffuseur, le reproducteur, le moteur de recherche ou le réseau social ayant maintenu
à la disposition du public des nouvelles fausses non accompagnées des réserves nécessaires pendant plus de trois jours à compter de la réception du signalement de leur caractère faux » étaient de mauvaise foi. Certes, ils pouvaient rétablir leur bonne foi en démontrant qu’ils avaient fait des
« démarches suffisantes et proportionnelles aux moyens » dont ils avaient disposé pour vérifier le contenu litigieux. Le texte a déclenché une série
de critiques, la principale consistant à dénoncer la difficulté à délimiter la frontière entre la « fake news » et la liberté d’expression, la liberté d’opinion ou encore la liberté de la presse. Il en résultait un risque non négligeable d’atteinte à un droit fondamental et constitutionnel. Aucune suite n’a été donnée à cette proposition jusqu’en janvier 2018, date à laquelle le président de la République – à l’occasion de ses voeux à la presse (3) – a annoncé sa volonté de réguler la publication de contenus sur Internet au cours des périodes électorales.

… au texte « Macron » de 2018
Une proposition de loi relative à la lutte contre les fausses informations
(4) ainsi qu’un projet de loi organique (5) prévoient de modifier le code électoral pour encadrer les périodes pré-électorale et électorale, définies comme courant à compter de la date de publication du décret convoquant les électeurs, jusqu’à la fin des opérations de vote, soit sur une durée maximum de cinq semaines avant le scrutin. L’objectif du législateur est
de contrôler les canaux de diffusion des fausses nouvelles, tout particulièrement les réseaux sociaux et les sites web de partage de vidéo ainsi que les médias sous influence d’un Etat étranger. A cet effet, le dispositif se décline en trois grandes propositions :
D’une part, le texte met à la charge des plateformes une obligation de transparence accrue sur tous les contenus sponsorisés. Elles devront rendre publiques l’identité des annonceurs de contenus ainsi que celle des personnes qui contrôlent les annonceurs. Elles devront également publier les montants consacrés à ces contenus, afin d’identifier les contenus sponsorisés à des montants élevés.
D’autre part, dans le cas où une fausse nouvelle serait publiée sur Internet, il est proposé d’introduire une nouvelle action en référé devant
le juge civil pour faire cesser la diffusion massive et artificielle d’une fausse nouvelle. Cette procédure, inspirée du référé « LCEN » (6) qui permet à toute personne de demander au juge de prescrire aux hébergeurs ou aux fournisseurs d’accès toutes mesures propres à prévenir un dommage ou
à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne. Cette action pourrait être engagée à la demande du ministère public ou de toute personne ayant intérêt à agir, uniquement pendant la période pré-électorale et électorale. Le tribunal
de grande instance de Paris serait exclusivement compétent, eu égard
au caractère national de l’écho donné à la diffusion massive de fausses informations. Le juge pourra notamment ordonner de supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné ou encore de bloquer l’accès au site Internet.
Enfin, les pouvoirs du Conseil supérieur de l’audiovisuel (CSA) seront accrus afin de lutter contre toute tentative de déstabilisation par les services contrôlés ou influencés par des Etats étrangers. Si le régulateur considère qu’un Etat étranger propage une fausse nouvelle, il pourra
« suspendre » ou « révoquer » la convention d’un média sous influence de cet Etat. La commission de la Culture et la commission des Lois du Sénat
ont rejeté ces propositions le 26 juillet 2018, considérant que le dispositif continue de susciter les mêmes inquiétudes au regard de la censure, y ajoutant qu’en envisageant d’accroître la responsabilité des plateformes en cas de diffusion de fausses nouvelles, les principes posés dans la loi « LCEN » de 2004 sont susceptibles d’être remis en question. Il s’agit en effet d’une nouvelle exception, au même titre que pour les contenus terroristes ou pédopornographiques, au principe de limitation de responsabilité des intermédiaires techniques. Le projet de loi « Fausses nouvelles » devrait passer en commission mixte paritaire d’ici la fin de l’année.
On notera que, dans son avis du 19 avril 2018, le Conseil d’Etat partageait déjà l’opinion des sénateurs, en considérant que la mesure tendant au
« déréférencement d’un site diffusant ces fausses informations » apparaissait excessive, seuls devant être déréférencés les liens menant vers les pages diffusant ces informations.
Par ailleurs, le Conseil d’Etat proposait de prévoir que l’ordonnance du juge des référés soit rendue en premier et dernier ressort, afin de ne permettre que l’exercice d’un pourvoi en cassation dans des conditions de délai qui peuvent être précisées dans le texte réglementaire d’application de la future loi. Enfin, plus généralement, après avoir reconnu que« l’état actuel du droit, notamment en matière électorale, ne permet[tait] pas nécessairement de répondre à l’intégralité des risques induits par [les plateformes numériques] », a suggéré « d’harmoniser les différentes dispositions des propositions de loi pour ne retenir que la notion de “fausses informations” » et non celle de « fausses nouvelles », et a recommandé que « la lutte contre les fausses informations soit systématiquement circonscrite aux cas dans lesquels il est établi que
la diffusion de telles informations procède d’une intention délibérée de nuire ».

L’Europe contre « la désinformation »
Sur le plan européen, la Commission européenne a adopté des mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 (8) par un groupe d’experts de haut niveau pour lutter contre la désinformation en ligne. Dans sa communication « Lutter contre la désinformation en ligne : une approche européenne » (9), datée du 24 avril 2018, elle préconise ainsi un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits ou encore une démarche d’autorégulation des acteurs. @

* Christiane Féral-Schuhl est ancien bâtonnier du Barreau
de Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

Ayant écarté Vivendi, Ubisoft devient une tête de pont du chinois Tencent – le « T » de BATX – en Europe

Alors que Tencent – le géant chinois du Net – va fêter ses 20 ans cette année, il est parti à la conquête du monde. L’éditeur français de jeux vidéo Ubisoft, dans le capital duquel il détient depuis mars dernier 5 %, devient un de ses plus importants appuis pour se développer en Occident.

C’est sa filiale Tencent Mobility Limited qui détient 5 % du capital d’Ubisoft (4,2 % des droits de vote), depuis l’accord d’investissement conclu le 20 mars 2018 (1). Ce partenariat stratégique entre le « T » de BATX (les GAFA chinois) et l’éditeur français de jeux vidéo (présent à l’international) se concrétisera avec le développement et la diffusion d’un nouveau jeu mobile en Chine.

Au-delà des 5 % du capital d’Ubisoft ?
Tencent avait déjà publié en juin 2017 le jeu mobile développé exclusivement pour l’Empire du Milieu – « Might and Magic Heroes: Era of Chaos » – et exploitant une franchise historique d’Ubisoft (2). En moins d’un an, les recettes ont dépassées les 100 millions d’euros en Chine. De quoi renforcer les liens. En janvier dernier, Tencent avait mis une sélection de jeux développés par Ketchapp, filiale d’Ubisoft, sur l’application mobile de messagerie-réseau socialboutique WeChat (alias Weixin) et plus précisément dans l’espace « mini-games » lancé en décembre 2017. Le potentiel de joueurs est énorme puisque près de 1 milliard d’utilisateurs sont actifs sur WeChat/Weixin. Tencent est d’ailleurs aussi éditeur de jeux vidéo comme « Honor of Kings ». L’audience massive du chinois pourrait aider Yves Guillemot (photo de gauche), PDG d’Ubisoft, à atteindre un objectif global à dix ans qu’il s’est fixé : 5 milliards de joueurs grâce au streaming, au cloud et à l’e-sport !
Mais les relations entre le chinois et le français, surtout depuis l’entrée du premier comme « actionnaires de long terme » au capital du second, est plus du donnant-donnant. Si Ubisoft a signé pour que Tencent l’aide à grandir sur le marché chinois, ce dernier est bien sûr en droit d’attendre un retour d’ascenseur du français pour l’aider à se développer sur les marchés occidentaux. Certes, Ubisoft n’a pas attendu Tencent pour s’implanter dans l’Empire du Milieu où il a ouvert des studios dès 2007 à Chengdu (centre-ouest de la Chine) où se trouve sa filiale Chengdu Ubi Computer Software, ainsi qu’à Shanghai (centre-est de la Chine) avec Shanghai Ubi Computer Software et Guillemot Electronic Technology. Sans parler de la présence à Pékin, Chengdu et Shenzhen de Gameloft Software – l’autre éditeur de jeux vidéo fondé par Michel Guillemot, l’un des frères de Yves Guillemot, PDG d’Ubisoft, et tombé dans l’escarcelle de Vivendi mi-2016. Mais cette fois Ubisoft se retrouve un peu plus redevable vis-à-vis de son nouvel actionnaire stratégique minoritaire. D’autant que Tencent a besoin d’appuis solides comme Ubisoft pour se déployer à grande échelle en Occident. Car le colosse du Net, dont la capitalisation est de 468 milliards de dollars (pas si loin de celle de Facebook), voit les choses en grand. Va-til à terme prendre
le contrôle d’Ubisoft comme Tencent Games l’a fait en 2015 de l’éditeur de jeux vidéo américain Riot Games, studio qui a développé le célèbre
« League of Legends », ou du studio finlandais Supercell (« Clash of
Clans ») ? Si le chinois doit encore attendre 2023 avant d’éventuellement porter sa participation au-delà des 5 % dans Ubisoft, limitation à laquelle il s’y est engagé auprès de la famille fondatrice Guillemot (23 % des droits de vote) et de l’Autorité des marchés financiers (AMF), il peut compter sur un soutien commercial du français pour se renforcer en Europe. Le PDG cofondateur de Tencent, Ma Huateng dit « Pony » (photo de droite) pose des jalons sur le Vieux Continent tels que la participation croisée de 10 % avec la plateforme musicale suédoise Spotify en 2017, une prise participation de
12 % dans Snap la même année pour en faire une plateforme de gaming, un partenariat avec le fabriquant danois Lego pour des jeux en ligne ou encore un partenariat avec le français Carrefour en 2018.
Aux Etats-Unis, Tencent est entré la même année au capital du producteur Skydance et a signé avec Google en Chine. Alors qu’il a du mal à introduire sa messagerie-réseau social WeChat en Europe, le « T » chinois de BATX serait bien tenté d’y lancer sa plateforme de jeux vidéo WeGame (ex-Tencent Games Platform) pour essayer de détrôner le puissant concurrent Steam du groupe américain Valve. En Chine, le site Wegame.com compte plus de 200 millions de gamers. Attendu à l’international depuis 2017, son lancement en Occident serait pour bientôt si l’on en croit Begeek.fr.

Ubisoft pourrait aider WeGame en Occident
Tencent serait décidé à lancer WeGame dans le reste du monde, en réponse au fait que Valve a signé un partenariat avec Perfect World pour lancer Steam en Chine. C’est là qu’Ubisoft pourrait aider Tencent à promouvoir WeGame en Europe, aux Etats-Unis et au Canada (3). Le géant chinois a bien d’autres atouts à revendre : il veut coter ses activités musique en ligne, Tencent Music Entertainment (TME), sur une Bourse aux Etats-Unis et non
à Hong Kong où le groupe est coté. @

Charles de Laubier

Réforme du droit d’auteur : les eurodéputés rejettent le risque de filtrage généralisé d’Internet

En rejetant le 5 juillet 2018 la réforme controversée de la directive sur le droit d’auteur, les eurodéputés jouent les prolongations en renvoyant la poursuite des débats à septembre prochain. Le risque de filtrage généralisé de l’Internet est l’un des points noirs de ce projet législatif.

L’article 13 de la directive européenne « Droit d’auteur dans le marché unique numérique » est le plus controversé de la réforme du copyright, contre laquelle 318 eurodéputés se sont prononcés contre le 5 juillet à Strasbourg (versus 278 pour et 31 abstention). Cet article 13 est celui qui fait le plus débat – voire polémique – dans ce projet de texte qui vient d’être rejeté. Car il introduirait une responsabilité des plateformes du numériques – de YouTube à Facebook, en passant par Twitter, Dailymotion ou encore Wikipedia – sur le sort des contenus (musiques, films, photos, …) qu’elles hébergent et mettent à disposition sur Internet.

L’article 13 cristallise l’opposition
Cet article 13, qui avait pourtant obtenu le 20 juin dernier la bénédiction de la commission des Affaires juridiques (JURI) du Parlement européen (15 voix pour, 10 contre), présente le risque d’ouvrir la voie au filtrage généralisé d’Internet dans la mesure où les GAFA devraient supprimer de façon préventive les contenus considérés comme piratés. Leur responsabilité serait ainsi étendue à la lutte contre le piratage en ligne, au point de leur demander d’utiliser le filtrage automatique de téléchargement en cas de violation de la propriété intellectuelle. YouTube, la filiale vidéo de Google, utilise déjà un système d’identification des contenus protégés, baptisé Content ID, qui détecte automatiquement les violations présumées de droits d’auteur. Un fois que le contenu « piraté » est repéré, YouTube le supprime aussitôt.
C’est la perspective de ce filtrage généralisé qui pose problème depuis la présentation de ce projet de directive en septembre 2016 par la Commission européenne. Le 25 mai dernier, les Etats membres, au sein du Conseil de l’Union européenne, s’étaient mis d’accord sur la responsabilisation des plateformes. Le projet de texte (1) oblige les prestataires de services à obtenir l’autorisation des ayants droits. Ainsi, l’article 13 stipule : « Quand il a aucune autorisation, par exemple parce que le détenteur de droits ne veut pas conclure une licence, le prestataire de services devra empêcher la disponibilité des œuvres identifiées par l’ayant droit. Sinon, les prestataires de service seront considérés comme responsables de l’infraction au copyright. (…) Sur la notification par l’ayant droit d’une oeuvre protégée non autorisé, le prestataire de services devra prendre des mesures urgentes pour supprimer l’oeuvre et l’empêcher de devenir disponible à l’avenir ». Autrement dit, en absence de d’autorisation de l’ayant droit, un fournisseur de services de partage de contenu en ligne sera tenu pour responsable s’il ne démontre pas qu’il a fait preuve des meilleurs efforts pour empêcher la disponibilité des œuvres spécifiques ou autres « en mettant en oeuvre des mesures efficaces et proportionnées, pour empêcher la disponibilité sur ses services des œuvres spécifiques ou autres identifiées par le détenteur de droits et pour lequel celui-ci a fourni au service des informations pertinentes et nécessaires pour l’application de ces mesures, et sur notification de l’ayant droit ». Cet article 13 soulève de nombreux problèmes de compatibilité avec la directive européenne de 2000 sur le commerce électronique (2), laquelle régit – depuis près de vingt ans maintenant – une bonne partie des responsabilités des acteurs de l’Internet qui ne sont soumis à aucune obligation de surveillance préalable des contenus. Le statut d’hébergeur à responsabilité limité avait d’ailleurs été conforté le 24 novembre 2011 par la Cour de justice de l’Union européenne (CJUE) dans un arrêt « Scarlet contre Sabam » dans lequel elle a décidé que« le droit de l’Union s’oppose à une injonction faite à un [fournisseur d’Internet] de mettre en place un système de filtrage de toutes les communications électroniques transitant par ses services ». La directive « e-commerce » de 2000 prévoit en effet, dans son article 15 intitulé « Absence d’obligation générale en matière de surveillance », que « les États membres ne doivent pas imposer aux [fournisseur d’Internet] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » (3).

Les arrêts « contre » de la CJUE
De plus, la CJUE avait estimé qu’« une telle obligation de surveillance générale serait incompatible » avec une autre directive et non des moindres : à savoir la directive « Propriété intellectuelle » du 29 avril 2004 (4), selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Ce qui n’est pas le cas du filtrage généralisé. Et comme si cela ne suffisait pas, les juges européens en ont appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009. « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement (…) qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue », a estimé la CJUE. Un autre arrêt européen, daté du 16 février 2012 celui-là (Sabam contre Netlog (5)), s’est lui aussi opposé à une surveillance généralisée du Net. En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 est venue à son tour sanctuariser ce régime de responsabilité limitée de l’hébergeur.

Mises en garde et controverses
Malgré toutes ces précautions législatives et jurisprudentielles, le statut des hébergeurs du Net était menacé. Les mises en gardes des opposants et les campagnes des lobbies ont finalement abouti au rejet du 5 juillet. « Ces mesures [si elles devaient être adoptées à la rentrée, ndlr] vont sérieusement saper les libertés fondamentales de l’Internet. Placer les intérêts particuliers des grosses compagnies média avant notre capacité à participer librement en ligne est inacceptable », avait lancé le 20 juin dernier l’eurodéputée Julia Reda (photo), qui fut l’auteur en 2015 du premier rapport (6) demandé par le Parlement européen en vue de cette réforme du droit d’auteur à l’ère du numérique. Selon elle, « l’article 13 va forcer les plateformes Internet (réseaux sociaux, sites vidéo, hébergeurs de photos, etc.) à installer de puissants filtres pour inspecter tout contenu publié par des utilisateurs, aussi en images – et donc à bloquer la plupart des “mèmes” (7), ceux-ci étant en général basé sur des images connues et non libres de droits ». Du côté des utilisateurs, le Bureau européen des unions de consommateurs (Beuc), basé à Bruxelles, avait exprimé son inquiétude, par la voix de sa directrice générale, Monique Goyens :
« Internet tel que nous le connaissons ne sera plus le même à partir du moment où les plateformes devront systématiquement filtrer le contenu que les utilisateurs veulent télécharger. Internet va passer d’un lieu où les utilisateurs peuvent partager leurs créations et leurs idées à un lieu contraignant et contrôlé ». La Quadrature du Net, elle, avait dénoncé très tôt « l’automatisation de la censure au nom de la protection du droit d’auteur et, plus largement, contre la centralisation du Web » (8). Cette association de défense des droits et libertés numériques a pris acte des « garanties » présentées par l’eurodéputé rapporteur du texte, Axel Voss, à savoir contre des censures arbitraires ou abusives : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d’auteur, ni au déploiement d’une surveillance généralisée des contenus mis en ligne ; un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d’auteur qui rendraient le filtrage injustifié. Mais ce compromis n’avait pas convaincu La Quadrature du Net, ni même Wikipedia qui avait protesté le 4 juillet en se rendant inaccessible dans plusieurs pays européens. Surtout qu’un article 11 prévoit, lui, l’instauration d’un droit voisin pour les éditeurs de presse. Encore plus contesté que l’article 13, il fut adopté le 20 juin dernier de justesse (13 voix pour, 12 contre). Ce droit voisin va permettre aux journaux, magazines ou encore aux agences de presse de se faire rémunérer lors de la réutilisation en ligne de leurs contenus par les agrégateurs d’informations tels que Google News ou Yahoo News (9). Surnommée « taxe sur les liens » (link tax) pour les contenus d’actualité, cette mesure suppose aussi de surveiller et filtrer Internet pour la mettre en oeuvre. « Le filtrage automatique des téléchargements et les droits voisins vont entraîner une censure de la liberté d’expression en ligne et un délitement d’Internet tel que nous le connaissons », avait déclaré Siada El Ramly, directrice générale d’Edima (European Digital Media Association), organisation représentant les GAFA (10). Le 5 juillet, l’Edima a considéré le rejet du texte comme « une victoire pour la démocratie ». Quant à l’association CCIA (Computer & Communications Industry Association), basée aux Etats-Unis et porte-parole des mêmes géants américains du Net, elle avait fustigé aussi la réforme du droit d’auteur : « Les filtres de téléchargement présenteront une obligation générale de contrôler le contenu téléchargé par l’utilisateur, ce qui sera destructeur pour les droits fondamentaux des citoyens européens et pour responsabilité limité des plateformes – une pierre angulaire légale pour le secteur numérique européen ».
En France, l’Association des services Internet communautaires (Asic) – présidée par Giuseppe de Martino (11) – avait lancé un appel le 13 avril dernier, dans une tribune parue dans Le Monde et cosignée par le Syntec numérique, France Digitale, Tech in France et Renaissance numérique, en demandant « au gouvernement français de préserver l’Internet ouvert tel que nous le connaissons actuellement, en empêchant l’instauration d’un filtrage généralisé ». Ensemble, ils ont mis en garde : « Le développement d’Internet, la créativité, la diversité des contenus que l’on peut y trouver et qui font sa richesse s’en trouveraient gravement menacés ». Les eurodéputés les ont entendus.

« Outils automatiques » et contenus illicites
La Commission européenne, elle, incite fortement les plateformes à mettre en place des « outils automatiques » de détection pour lutter non seulement contre le piratage en ligne mais aussi les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon. C’est le sens de sa recommandation du 1er mars (12). Elle avait fixé l’échéance du mois de mai 2018 avant de décider s’il y a lieu ou pas de légiférer. @

Charles de Laubier