Aucune enquête coordonnée en Europe n’a été menée sur le scandale « Facebook/Cambridge Analytica »

Plus de deux ans après l’éclatement de l’affaire « Cambridge Analytica » sur l’exploitation massive et illégale des données personnelles de dizaines de millions d’utilisateurs de Facebook à des fins de ciblages politico-publicitaires, aucune enquête n’a été menée en France par la Cnil. Surprenant.

Helen Dixon, à la tête de la « Cnil » irlandaise

Aux Etats-Unis, Facebook a écopé l’été dernier d’une amende record de 5 milliards de dollars infligée par la FTC (1) – définitivement confirmée par un tribunal le 23 avril 2020 – pour n’avoir pas géré ni protégé correctement les données personnelles de ses utilisateurs. En Grande-Bretagne, la « Cnil » britannique – ICO (2) – l’a condamné en octobre 2019 au maximum que lui permettait la loi du pays pour violation sur la protection des données, soit 500.000 livres (plus de 565.000 euros). Ces données ont notamment été exploitées en 2016 pour influencer respectivement l’élection présidentielle américaine et le référendum britannique sur le Brexit. Mais bien d’autres pays ont eux-aussi enquêté sur ce siphonnage de données personnelles opéré illégalement par la société londonienne Cambridge Analytica (devenue Emerdata) sur près de 100 millions d’utilisateurs de Facebook : 50 millions aux Etats-Unis, 87 millions si l’on y ajoute d’autres pays dans le monde. Mais connaîtra-t-on jamais l’ampleur de la manipulation à portée planétaire ?

La Cnil n’a pas jugé bon d’enquêter
En Australie, la « Cnil » australienne – OAIC (3) – a lancé en mars dernier une action judiciaire contre Facebook pour avoir transmis Cambridge Analytica les données personnelles de 311.127 Australiens. Au Canada, la « Cnil » canadienne – OPC (4) – a saisi en février la justice contre Facebook accusé là aussi d’avoir transmis des données privées sans autorisation à Cambridge Analytica. En Europe, en dehors de la Grande-Bretagne où Cambridge Analytica avait son siège social, l’Italie – via son gendarme de la concurrence AGCM – a rappelé à l’ordre la firme de Mark Zuckerberg accusée de continuer à collecter de façon non transparente des données personnelles en violation de ses engagements pris en novembre 2018 – assortis à l’époque de deux amendes pour un total de 10 millions d’euros. En Espagne, comme par ailleurs au Brésil, Facebook a dû aussi mettre la main au portefeuille à la suite du scandale « Cambridge Analytica ». Et en France ? Continuer la lecture

« Crépuscule », le pamphlet politique qui jette une lumière crue sur une oligarchie médiatique

L’avocat Juan Branco démontre comment trois milliardaires et magnats des médias – Bernard Arnault (Le Parisien, Les Echos, …), Xavier Niel (Free, Le Monde, L’Obs, …) et Arnaud Lagardère (Paris Match, Le JDD, Europe 1, …)
– ont orchestré dans l’ombre la montée au pouvoir d’Emmanuel Macron.

« Le président [de la République] qui veut légiférer sur les fake news est lui-même le produit d’une immense fake news. (…) Emmanuel Macron transparaît dans ce récit comme le produit d’une manipulation de l’opinion », écrit le journaliste Denis Robert dans la préface qu’il consacre au livre « Crépuscule », de l’avocat Juan Branco (photo), paru le 21 mars dernier aux éditions Au diable Vauvert et Massot.

« Le futur président de la République ! » (Niel, 2014)
Dans ce pamphlet politico-médiatico-télécoms, l’auteur y « dénonce et expose les preuves d’une OPA commise sur la démocratie par des oligarques puissants, en
faveur d’intérêts de caste, et comment le président Emmanuel Macron en fut à la fois
la créature et l’instrument ». Juan Branco y entreprend de lever le voile sur les « amis » d’Emmanuel Macron qui l’ont aidé à devenir président de la République. Ces amis-là sont Bernard Arnault, le PDG du groupe LVMH et propriétaire des quotidiens Le Parisien et Les Echos, Xavier Niel, le fondateur de l’opérateur télécoms Free et copropriétaire du Monde et de L’Obs, ainsi qu’Arnaud Lagardère, patron de Paris Match, du Journal du Dimanche (Le JDD) et d’Europe 1.
Cet ouvrage-citoyen jette en même temps une lumière crue sur des milliardaires qui détiennent en France – cas unique au monde (1) – des pans entiers des médias, dont l’indépendance est mise à mal. « Dans un pays où 90 % de la presse est entre les mains de quelques milliardaires, l’exposition de la vérité est affaire complexe. (…) La capacité à dire et se saisir du réel n’a cessé, par ces corruptions, pour les dirigeants comme pour les populations, de se dégrader. (…) La prise de l’information par quelques individus obsédés par l’idée de soi a distordu la vie de la cité (…) », déplore Juan Branco au début de son livre. L’auteur de « Crépuscule » l’affirme pour y « avoir, de l’intérieur, assisté » : « Emmanuel Macron a été “placé” bien plus qu’il n’a été élu.
Et la presse a agi en ce domaine avec complicité, la complicité que l’on ne peut qu’attendre de ceux qui, eux-mêmes placés, subissant cure d’amaigrissement sur
cure d’amaigrissement, n’auront cessé de bêler à leur indépendance par peur de perdre leur place, plutôt que de s’indigner ». Juan Branco relate notamment une première rencontre qu’il a eue en janvier 2014 avec Xavier Niel, lequel l’avait invité « comme
il le fait régulièrement avec des jeunes gens qu’il considère être appelés à de hautes fonctions ». L’hôte est alors âgé de 24 ans, normalien, docteur en droit, chercheur à l’université Yales et auteur en 2010 d’un premier ouvrage intitulé « Réponses à Hadopi » après avoir milité contre la loi Hadopi (2). Le patron de Free est alors déjà à la fois copropriétaire depuis novembre 2010 du journal Le Monde et tout juste coactionnaire majoritaire de L’Obs (depuis janvier 2014). Xavier Niel, treizième fortune professionnelle de France d’après Challenges (3), est réputé non seulement pour intenter des procès à des journalistes, mais aussi pour contrôler financièrement des médias pour, at- il dit, « ne pas être emmerdé ». Il est en outre gendre de Bernard Arnault – le plus fortuné de France et d’Europe, et quatrième mondial (4) – après s’être uni à Delphine Arnault, l’héritière dont il a une fille Elsa née en 2012. Xavier Niel invite donc Juan Branco à déjeuner place de la Madeleine. Et ce dernier de raconter notamment deux de leurs échanges. Le premier : « Je l’entretiens des dangers d’avoir investi dans la presse,
d’un mélange des genres qui risque de l’effondrer. Il balaye d’un revers de main mes réserves, se raidit et découvre pas à pas, là où je croyais encore à une forme d’entièreté, le cynisme d’un être prêt à tout pour ses intérêts ». Second propos rapporté par Juan Branco : « Sur le point de me quitter, il tient cependant à me montrer son téléphone : un certain Emmanuel Macron vient de lui écrire. “Le futur président de la République !”, me dit-il. Nous sommes en janvier 2014. Je le regarde, sévère. Son sourire s’éteint ». Cette prémonition intéressée se réalisera effectivement lors de l’élection présidentielle de 2017, grâce à l’entremise de Jean-Pierre Jouyet qui fut secrétaire général de la présidence de la République sous François Hollande.

Jean-Pierre Jouyet et l’Inspection de finances
C’est cet « homme de l’ombre », Jean-Pierre Jouyet, qui fait intégrer à l’Elysée le jeune Macron, dont il est proche avec l’homme d’affaires millionnaire Henry Hermand (5) et Xavier Niel. « Jean-Pierre Jouyet et l’Inspection des finances propulsent Emmanuel Macron au moment où celui-ci pensait sa carrière politique en berne. Le duopole Niel-Arnault, au mépris de toute règle démocratique, sponsorise. Les médias s’alignent », relate Juan Branco. Le jeune protégé Macron, énarque, inspecteur des finances et banquier d’affaires chez Rothschild & Co devient ainsi secrétaire général adjoint du cabinet du président (mai 2012-juillet 2014), avant que Jean-Pierre Jouyet n’annonce son entrée au gouvernement comme ministre de l’Economie, de l’Industrie et du Numérique (août 2014-août 2016). Il a 36 ans. C’est d’ailleurs au cours de ces deux dernières années ministérielles, où il est donc aussi en charge du numérique, que Edition Multimédi@ rencontrera Emmanuel Macron. Juan Branco a écrit « Crépuscule » en octobre 2018, avant de mettre en ligne le mois suivant sur son blog du Monde la première version de son manuscrit. Les Gilets jaunes, eux, lancent leur « Acte I » le
17 novembre. Son brûlot se propage sur Internet comme une traînée de poudre, téléchargé des dizaines de milliers de fois, faisant de ce jeune avocat (29 ans ; il aura 30 ans en août prochain) l’un des plus célèbres « lanceur d’alerte » sur les réseaux sociaux. Les médias institutionnels, eux, le tiennent à distance.

«Mimi » et « Crépuscule » inquiètent le pouvoir
Malgré cet intérêt confirmé des internautes, les éditeurs contactés – pour leur
proposer de faire paraître le livre dans sa version finalisée et augmentée – refuseront
le manuscrit. Au même moment, Juan Branco fait l’objet d’une plainte de la porte-
parole du parti LREM, la députée Aurore Bergé pour incitation à la « haine » et à la
« violence » ! Un autre livre intitulé « Mimi » trouvera, lui, un éditeur qui le publiera en octobre 2018 : Grasset, filiale d’Hachette Livre, partie intégrante du groupe d’Arnaud Lagardère, également propriétaire de Paris Match et du Journal du Dimanche et d’Europe 1. Ce livre inquiète la présidence « jupitérienne », mais pas trop. Et l’auteur
de « Crépuscule » de relever : « Explosant les opaques frontières jusqu’ici dessinées au nom de l’intimité par une presse compromise et dominée, le texte qui a rompu les frontières classiques de l’oligarchie, “Mini”, oeuvre de deux journalistes d’investigation [Jean-Michel Décugis et Marc Leplongeon] et d’une romancière [Pauline Guéna], mettait étrangement en lumière, à la rentrée 2018, une des principales pièces de la “fabrique du consentement” qui a permis la victoire d’Emmanuel Macron, à travers
un matraquage inédit, quasi-physique, qui fut imposé par une certaine caste aux Français ». Le livre « Mimi » enquête sur Michèle Marchand, professionnelle de la communication et de la presse people, mise au service du couple Macron jusqu’à l’Elysée.
Cette « Mimi » au passé sulfureux apparaît comme une « pièce centrale d’une entreprise de communication mise en place avec de Xavier Niel [qui a rencontré “Mimi” grâce à un avocat commun lors de leurs passages respectifs en prison au début des années 2000, ndlr], dans le but de faire connaître et adouber par le peuple français
un inconnu absolu qui venait d’être coopté par les élites parisiennes : Emmanuel Macron ». Il y est révélé que Xavier Niel et Emmanuel Macron sont amis de longue date, ce que les médias n’avaient pas voulu faire savoir aux Français. «Le premier a mobilisé sa fortune et son réseau pour faire élire le second (…). Que Xavier Niel soit le propriétaire du groupe Le Monde, mais aussi de L’Obs et possède des participations minoritaires dans la quasi-totalité des médias français, y compris Mediapart [fondé par Edwy Plenel et auteur du “Droit de savoir”, ndlr], n’est probablement pas pour rien dans le fait que nos journalistes n’aient jamais révélé ces liens d’amitié, et a fortiori le fait que ces liens aient nourri la mise à disposition de certaines des ressources d’un milliardaire au service de M. Macron », reproche Juan Branco. Il rappelle au passage que Xavier Niel a aussi pris des participations dans bon nombre de nouveaux médias tels que Bakchich, Atlantico, Causeur, Next Inpact ou encore Terraéco. Le patron de Free aurait acheté le silence voire l’autocensure de médias qu’il ne s’y serait pas pris autrement. «On est en droit de s’étonner qu’il ait fallut attendre septembre 2018 (lorsque les jeux sont faits) pour que les liens entre l’un des plus importants oligarques de notre pays
et son président aient été révélés », poursuit l’auteur qui pointe les éventuels conflits d’intérêts. Cette campagne de communication orchestrée par Niel et Marchand s’est notamment traduite par près d’une quarantaine de couvertures de Paris Match et du JDD (publiés par le groupe d’Arnaud Lagardère), ainsi que de L’Obs (copropriété de Xavier Niel) consacrées à Emmanuel et Brigitte Macron. Et encore, le livre « Mimi »
ne s’attarde pas sur les liens Niel- Macron que seul le journaliste indépendant Marc Endeweld avait révélés sur dans son livre « L’ambigu Monsieur Macron », paru en 2015 chez Flammarion (6). Pas plus que n’est soulevé le problème démocratique que cela pose au pays. Il faut dire que « Mimi » est publié chez Grasset, une des nombreuses maisons d’édition détenues par Arnaud Lagardère, lequel, estil indiqué dans
« Crépuscule », a été client d’Emmanuel Macron lorsque celui-ci fut à la banque Rothschild.
Le « petit Paris » est décidément petit. Arnaud Lagardère mettra son conseiller spécial Ramzi Khiroun au service de Macron devenu ministre.Xavier Niel, lui, offrira en outre son école informatique 42 et sa Station F pour start-up, inaugurées respectivement
en mars 2013 et en juin 2017, comme tribune à Emmanuel Macron devenu président. Entre temps, celui qui est encore ministre de l’Economie, de l’Industrie et du Numérique s’offre en janvier 2016 une sorte pré-campagne présidentielle au CES de Las Vegas, grand-messe de la hightech, sur des fonds confiés sans appel d’offres à l’agence Havas par Business France (BF). En outre, Juan Branco fait remarquer que « la fortune de Xavier Niel est directement dépendante des décisions de nos gouvernants ». Exemple : François Fillon, alors Premier ministre de Nicolas Sarkozy, avait décidé – contre l’avis de ce dernier et en « renvers[ant] une première décision négative de l’Arcep » – d’octroyer en 2009 la quatrième licence de téléphonie mobile (UMTS) à
Free – « faisant exploser la capitalisation boursière de Free, dont M. Niel est encore propriétaire à plus de 50% ».

Macronie : donnant-donnant, limite corruption
Dans cette saga d’oligarques qui a porté au pouvoir le jeune Macron (39 ans lorsqu’il est élu chef de l’Etat français), Patrick Drahi, autre milliardaire, propriétaire d’Altice/SFR devenu en plus lui aussi magnat des médias (Libération, L’Express, BFM, …), a également fait le jeu d’Emmanuel Macron. Ce dernier, lorsqu’il fut secrétaire général adjoint de l’Elysée, lui a demandé de la part de François Hollande de sauver le quotidien Libération. Ce que fit Patrick Drahi à l’été 2014 – Bernard Mourad s’en occupera pour lui et deviendra conseiller de Macron. Ce qui aurait permis à Altice
de racheter SFR au nez et à la barbe de Bouygues… @

Charles de Laubier

Pinterest a 10 ans : entre fake news et la Bourse

En fait. Le 25 février, un porte-parole de Pinterest a confirmé à l’AFP que le réseau social de partage de photos bloquait les recherches d’informations
sur les vaccins relevant de la désinformation « antivaccins ». Pours ses dix ans, Pinterest fait parler de lui – avant son entrée en Bourse prévue fin juin.

En clair. Facebook est né en 2004, Twitter en 2006, Instagram en 2010 (racheté deux après par le premier), et Pinterest en 2010 également – après avoir été créé en 2009 par Paul Sciarra et Ben Silbermann qui avait conçu en 2008 Tote, un catalogue de produits développé par la société Cold Brew Labs (devenue Pinterest), aussitôt abandonné au profit de l’application partage de photos et d’images. Pour ses dix ans,
la société Pinterest, basée à Palo Alto (Californie), est plus que jamais entrée dans la cour des grands réseaux sociaux en étant appelés par le Congrès des Etats-Unis à combattre les fake news en général et les désinformations sur les vaccins en particulier – sur fond de recrudescence de la rougeole outre- Atlantique ! C’est dans ce contexte de suspicion sur les contenus véhiculés par les Google, YouTube, Facebook et autres Twitter que la fièvre monte autour de Pinterest… La « licorne » – appelée ainsi car jusqu’à maintenant non cotée en Bourse mais à la valorisation dépassant 1 milliard de dollars – a déposé « secrètement » auprès du gendarme boursier américain (la SEC) un dossier d’introduction en Bourse justement (1). C’est ce qu’a révélé le 21 février dernier le Wall Street Journal, qui valorise Pinterest de 12 milliards de dollars minimum depuis une levée de 150 millions d’euros en 2017. La cotation est envisagée pour fin juin – et non pour le mois d’avril comme initialement avancé par le journal économique. Il faut dire qu’en dix ans, le petit réseautage de photos est devenu grand et revendique plus de 250 millions d’utilisateurs – dont plus de 50 % hors des Etats-Unis – après avoir franchi la barre des 200 millions en septembre 2017.
Les personnes inscrites peuvent « épingler » – to pin en anglais – sur des tableaux virtuels d’images et de photos en fonction de leurs centres d’intérêt (décoration, voyages, mode, cuisine, …). De nombreuses marques utilisent aussi les tableaux collaboratifs de Pinterest pour y montrer leurs produits et, depuis 2015, les vendre à l’aide d’un bouton « acheter ».  Et depuis février 2018, il est possible de cliquer sur un objet dans une photo (vêtement, meuble, produit, …) pour se le voir proposer à l’achat (2). La montée en charge de Pinterest a de quoi inquiéter Facebook qui tente de donner la réplique avec Instagram, sa filiale depuis 2012. La bataille des photos et images partagées ne fait que commencer. @

Règlementation pour la fiabilité des informations et conseil de presse : sommes-nous tous concernés ?

Les lois de lutte contre les « fausses nouvelles » (1881, 2016, 2018) visent aussi
à faire respecter une certaine déontologie de l’information qui, à l’ère d’Internet, ne concerne plus seulement les médias et les journalistes, mais aussi la société civile qui participe à la diffusion d’« actualités ».

Par Marie-Hélène Tonnellier, avocate associée, Corentin Pallot, avocat, et Elsa Mouly, élève-avocat, cabinet Latournerie Wolfrom Avocats

La confiance dans les médias chute
à des niveaux pour le moins inquiétants. Constat particulièrement marquant, selon une étude Kantar Sofres réalisée début janvier : si le média le plus crédible aux yeux du public serait la radio, seuls 50 % des participants considèrent que les informations y sont fiables ; ce taux de crédibilité tombe à 44 % pour les informations communiquées dans la presse écrite et à 38 % à la télévision (1).

Plusieurs acteurs sont visés
Parallèlement à cette perte de confiance, de nouveaux sites d’information en marge
des médias traditionnels font leur apparition dont l’objectif affiché est souvent d’offrir
un média de proximité et indépendant. Pour tenter de lutter contre cette perte de confiance, le législateur et le pouvoir exécutif sont intervenus à plusieurs reprises
ces derniers mois en prenant des mesures visant en premier lieu les médias et les journalistes, mais pas seulement, puisque certains des textes adoptés concernent d’autres acteurs tels que les annonceurs, les plateformes en ligne, voire la société civile.
• Les médias et journalistes : les premiers concernés. Déjà en 2011, le Syndicat national des journalistes (SNJ) avait élaboré et adopté une charte d’éthique professionnelle. On y retrouvait des principes dont l’objectif est de lutter contre la désinformation : le journaliste « prend la responsabilité de toutes ses productions professionnelles, mêmes anonymes » ; de même qu’il « tient l’esprit critique, la véracité, l’exactitude, l’intégrité, l’équité, l’impartialité, pour les piliers de l’action journalistique ; tient l’accusation sans preuve, l’intention de nuire, l’altération des documents, la déformation des faits, le détournement d’images, le mensonge, la manipulation, la censure et l’autocensure, la non vérification des faits, pour les plus graves dérives professionnelles » (2). Pour autant, malgré les efforts fournis, la déontologie des journalistes – qui reste pour beaucoup un sujet de discussion passionné – ne semble pas pour autant avoir abouti à des règles contraignantes. En 2016, c’est la loi qui est venue cette fois-ci imposer, non pas aux journalistes mais aux sociétés éditrices de presse ou audiovisuelles, de se doter d’une charte de déontologie (3). Cette disposition a pour conséquence de créer autant de chartes de déontologie qu’il y a de sociétés éditrices. Ce qui n’a pas manqué d’inquiéter certains acteurs, d’autant que beaucoup l’ont jugée insuffisante au regard de son objectif de renforcement de l’indépendance des médias vis-à-vis des actionnaires. Tout récemment a été adoptée une loi particulièrement marquante (tout du moins a-t-elle beaucoup fait parler d’elle !), la loi
« Fake News » (4), qui vise directement les médias. Difficilement acquise par la majorité, rejetée deux fois par le Sénat, objet d’une saisine du Conseil constitutionnel, cette loi de « lutte contre la manipulation de l’information » a finalement été publiée le 23 décembre 2018. Elle a pour objectif premier de lutter contre les fausses informations en période électorale. Pour ce faire, elle donne la possibilité au Conseil supérieur de l’audiovisuel (CSA) d’ordonner la suspension de la diffusion d’un service de télévision contrôlé par un Etat étranger ou placé sous l’influence de cet Etat pour avoir diffusé en période électorale de fausses informations. Cette loi permet également, toujours au CSA, de prononcer la résiliation unilatérale de la convention conclue avec l’éditeur si
ce service a porté atteinte aux intérêts fondamentaux de la nation – notamment par la diffusion de fausses informations. La loi « Fake News » s’adresse également aux services de communication au public en ligne puisqu‘elle permet en période électorale de saisir le juge des référés, afin qu’il prenne toutes mesures proportionnées et nécessaires pour faire cesser la diffusion d’allégations jugées inexactes ou trompeuses et de nature à altérer la sincérité du scrutin à venir.

Décision nuancée du Conseil constitutionnel
Si certains ont pu y voir un risque d’atteinte à la liberté d’expression et de la communication, leur crainte n’a pas retenu l’attention du Conseil constitutionnel qui a considéré que cette nouvelle procédure avait pour but de « lutter contre le risque que les citoyens soient trompés ou manipulés dans l’exercice de leur vote par la diffusion massive de fausses informations sur des services de communication au public en
ligne ». Il a d’ailleurs ajouté que les services de communication au public en ligne ciblés par cette procédure « se prêt[aient] plus facilement à des manipulations massives et coordonnées en raison de leur multiplicité et des modalités particulières de la diffusion de leurs contenus » (5). Les sages de la rue de Montpensier ont tout de même nuancé leur décision en précisant que « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ». Il en va de même pour « le risque d’altération de la sincérité du scrutin, qui doit également être manifeste ».

Les géants du Web mis à contribution
• Les plateformes en ligne dans le viseur du législateur. Mais la loi « Fake News » n’a pas seulement la prétention de cibler les médias. Elle vise en effet également à responsabiliser les géants du Web dont les plateformes sont de plus en plus utilisées comme relai d’information ou de désinformation (c’est selon), la loi allant jusqu’à exprimer clairement une obligation de mettre « en oeuvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité d’un des scrutins ». Ces plateformes en ligne devront en particulier, trois mois avant et jusqu’à la fin des élections, fournir une information loyale, claire et transparente sur l’identité de la personne qui finance le contenu de l’information partagée se rattachant au débat d’intérêt général. Elles devront aussi rendre public le montant de ces financements lorsqu’il dépasse un certain seuil. La facilité d’accès à ces plateformes et la possibilité pour tout un chacun d’y publier des contenus rend particulièrement difficile le contrôler les informations y circulant. La multitude d’auteurs et cette absence de contrôle a facilité l’expansion des fake news. Le législateur entend ainsi endiguer ce phénomène et rendre plus aisée la lutte contre la désinformation.
• Les sites favorisant la désinformation attaqués au portefeuille. Avec la digitalisation et l’essor de la publicité en ligne, le phénomène des fake news n’épargne pas non plus les annonceurs publicitaires. Le ciblage comportemental, qui consiste à associer une publicité à une personne déterminée, la multiplication des acteurs ou encore l’automatisation quasi-complète du processus, rend de plus en plus difficile pour l’annonceur de s’assurer de l’environnement dans lequel son annonce est diffusée. Pour éviter que ces derniers n’en perdent complétement la maîtrise, le pouvoir exécutif a mis à la charge des vendeurs d’espaces publicitaires une obligation de transparence. Depuis le 1er janvier 2018, un décret favorisant la transparence dans le monde de la publicité digitale permet en effet aux annonceurs de s’assurer que leurs publicités ne sont pas associées à des sites qui pourraient nuire à leur image (6). Les vendeurs doivent désormais communiquer à l’annonceur un compte rendu qui répertorie notamment : l’univers de diffusion publicitaire, le contenu des messages publicitaires diffusés, les formats utilisés, le montant global facturé pour une même campagne publicitaire, ou encore les mesures mises en oeuvre pour éviter la diffusion de messages publicitaires sur des supports illicites. Les annonceurs pourront ainsi vérifier que leurs publicités ne sont pas diffusées sur des sites propagandistes, entre autres sites web indésirables ou illicites. Ce décret permet donc à la fois pour l’Etat de lutter contre le financement de ces supports et pour les annonceurs de protéger leur image de marque.
• La société civile également impliquée dans la lutte contre les fake news. On relèvera enfin que cette récente règlementation n’a cependant pas complété le catalogue de sanctions visant les émetteurs de fake news, le but étant plutôt d’adapter la loi aux nouveaux canaux d’information. Les dispositions existantes n’ont donc pas été modifiées, telles que l’article L. 97 du code électoral qui prévoit une sanction contre ceux qui utilisent de fausses informations pour détourner des votes ou encore l’article 27 de la loi du 29 juillet 1881 qui punit la diffusion de fausses nouvelles qui auront troublé la paix publique. A noter que d’autres dispositions de la loi de 1881 sur la liberté de la presse, du code pénal ou du code monétaire et financier viennent également sanctionner une variété de comportements en lien avec la création de fausses informations. Cet arsenal est déjà assez complet. On aurait donc pu reprocher à ces différents textes de ne pas viser les personnes de la société civile, qui pourtant participent et sont finalement les premiers concernés par le désaveu envers les médias. Seule disposition notable, celle insérée dans le code de l’éducation imposant d’informer les élèves sur les « moyens de vérifier la fiabilité d’une information » (7).
Mais c’est là qu’intervient la possible création d’un conseil de déontologie de la presse qui pourrait permettre, selon le ministre de la Culture, Frank Riester, de « retisser le lien de confiance entre les français et les journalistes si tant est qu’il est distendu » (8). Dans cette optique, l’ancienne ministre de la rue de Valois, Françoise Nyssen, a confié à Emmanuel Hoog (ancien PDG de l’Agence France-Presse) la rédaction d’un rapport en vue de la création d’un conseil de déontologie de la presse. Ce rapport, annoncé pour la fin du mois de janvier 2019, n’a néanmoins toujours pas encore été publié.

Conseil de presse pour instruire les plaintes
Ce conseil dit « de presse », mais qui concernerait tous les médias (journaux, télévisions, radios, numérique, …), pourrait réunir des journalistes et des éditeurs, mais aussi des personnes venant de la société civile. Organe de réflexion, de concertation mais aussi de médiation, le conseil aurait pour fonction d’instruire les plaintes des personnes concernant le respect des pratiques professionnelles. C’est en tout cas ainsi que l’a envisagé l’Observatoire de la déontologie de l’information, dans un communiqué (9) publié en janvier dernier. @

Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

L’intelligence artificielle (IA) – qui regroupe plusieurs technologies dont l’apprentissage machine (ou apprentissage automatique, en anglais machine learning) – est une forme avancée de logiciel.
Un logiciel est simplement un ensemble de programmes destiné à faire fonctionner un système informatique. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut-il traiter l’IA différemment ?

Bon équilibre entre sécurité, prix et utilité
Examinons d’abord la question de la responsabilité civile. Sur le plan économique, les règles de responsabilité civile sont destinées à encourager le déploiement de nouvelles technologies, tout en s’assurant que ces technologies s’entourent de mesures de sécurité adéquates. Si les règles de responsabilité sont trop strictes, certaines technologies utiles pour la société ne seront pas déployées. Si les règles de responsabilité sont trop laxistes, la technologie créera des dommages pour la population dépassant largement les bénéfices de la technologie. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologie utile mais relativement dangereuse car responsable de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmenterait sensiblement son prix ! Comme pour la voiture, le défi pour l’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système d’IA – par exemple, un constructeur automobile ou une banque – sera incitée par les règles de responsabilité civile à s’assurer de la sécurité du système. L’une des particularités des systèmes d’apprentissage machine est leur utilisation de données d’entraînement. Le concepteur du modèle d’apprentissage fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit-il d’un défaut dans le modèle d’origine, ou est-ce que l’anomalie provient des données d’apprentissage de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système d’IA de préciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabilité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligent grâce aux données d’entraînement ; le propriétaire des données d’entraînement pourrait donc exiger une rémunération. Les contrats devront également prévoir des dispositions pour garantir que le modèle amélioré ne peut pas indirectement révéler des données confidentielles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraînement. Entre les entreprises, la plupart des questions de responsabilité seront régulées par contrat. Les décisions d’un système d’apprentissage automatique sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’application des règles de responsabilité civile et pour la régulation en général – les tribunaux, experts et régulateurs doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabilité à l’acteur approprié. De nombreux travaux sont actuellement consacrés aux problèmes de la transparence et de l’« auditabilité » des algorithmes, à l’« explicabilité » et à la responsabilisation (accountability) des décisions IA (1). Ces travaux ne font pas consensus. Sur le thème de la transparence et de l’auditabilité des algorithmes, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétaire qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparent et audité de manière à découvrir l’origine des erreurs,
et à pouvoir les corriger. La chancelière d’Allemagne, Angela Merkel, a récemment plaidé pour la transparence des algorithmes.

L’Europe veut de la transparence
En Europe, la transparence est également au cœur du règlement général sur la protection des données (RGPD) qui énonce que pour les décisions automatisées basées sur des données personnelles et qui créent des effets juridiques, les individus ont droit à « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement ». Le deuxième camp considère que l’idéal de transparence n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithmes sophistiqués (réseaux de neurones), et d’autre part, que rendre transparents les algorithmes menacerait à terme les investissements et briserait les secrets. En France, la Commission nationale de l’informatique et des libertés (Cnil) a semble-t-il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithmes. Sur le thème de la discrimination ensuite, les débats également sont animés.

Secret, discrimination et responsabilité
Des travaux récents aux Etats-Unis ont montré que des algorithmes étaient biaisés envers certaines catégories de personnes, et conduisaient donc à des discriminations. L’originalité du préjudice vient cependant d’un problème nouveau lié à l’IA : les algorithmes ont appris à discriminer à partir de données d’entraînement qui étaient biaisées, ou par simple association
de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc.
Les algorithmes n’ont pas intentionnellement discriminé : dès lors qui est responsable ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimination (non-intentionnelle) sans un accès à l’algorithme ?
Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologie IA a produit le résultat ? Dernière question liée au cas particulier d’un algorithme causant une discrimination : comment corriger une discrimination sur le genre, par exemple, s’il est impossible de collecter des informations personnelles sur le genre (du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut-il créer une personnalité juridique pour les systèmes d’IA ? Pour que
la responsabilité civile puisse fonctionner, il faut identifier une personne responsable, et cette personne devra disposer de suffisamment de ressources ou d’assurances pour dédommager les victimes. En matière d’IA, la personne responsable sera généralement l’entreprise qui exploite le système – la banque ou le constructeur automobile par exemple. Cette personne sera généralement responsable en première ligne, et se retournera ensuite contre ses fournisseurs du système IA en amont. L’entreprise exploitante sera généralement assurée contre les risques de responsabilité civile, et vérifiera que ces fournisseurs en amont le sont également. La création d’une personnalité juridique pour les systèmes d’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilité de la personne morale responsable, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétaire du navire sera généralement insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuellement la recherche d’autres personnes morales responsables à travers des théories de responsabilité indirecte (vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de l’IA ? Deux points de vue s’opposent. Selon le premier point de vue, l’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économiques et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateurs sectoriels. Selon l’autre point de vue, les risques de l’IA sont étroitement liés à chaque type d’exploitation, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de l’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques
de l’IA dans les voitures autonomes.
Un super-régulateur de l’IA ne rajouterait rien par rapport aux régulateurs sectoriels spécialisés, et pire, créerait une couche de régulation potentiellement en friction avec la régulation sectorielle. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologies en mouvement. Comme un médicament, une régulation peut créer des effets secondaires imprévus (2). La régulation de l’Internet a évolué de manière progressive en s’appuyant sur la législation existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligence artificielle »,
il faudrait privilégier une série d’améliorations de la réglementation existante. Les normes ISO (3) en matière de sécurité des véhicules sont déjà en cours de modification pour intégrer l’IA (4). Le régulateur américain de la santé, la Food & Drug Administration (FDA), a développé des procédures pour homologuer des dispositifs médicaux utilisant l’IA (5). Le seul problème lié à cette approche sectorielle est l’apparition de risques cumulatifs pour la société qui échapperaient à la vigilance des régulateurs sectoriels. Est-ce que la généralisation de l’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutions démocratiques ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateurs sectoriels.

Observatoire des effets de l’IA sur la société ?
Un récent rapport de la fondation World Wide Web (6) prend l’exemple
des « fake news » propagées à travers les réseaux sociaux : quelle structure faut-il mettre en place pour changer les incitations des acteurs à communiquer des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsables ? La Commission européenne favorise en premier lieu des solutions d’auto-régulation pour limiter l’impact de la désinformation sur la société. La surveillance de ce type de risque plus diffus pourrait être confiée à une institution dédiée – une sorte d’observatoire des effets de l’IA sur la société. L’objectif de cette institution serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut-il définir les indices ! @