DSA & DMA : compromis numérique en vue entre les Etats membres, à défaut de consensus

Les deux propositions de règlement, l’un pour un « marché unique des services numériques » (DSA) et l’autre sur les « marchés contestables et équitables dans le secteur numérique » (DMA), entrent dans leur dernière ligne droite législative. La Commission européenne en a été l’initiatrice il y a un an.

L’issue des tractations et des lobbyings autour des deux propositions de règlement DSA (Digital Services Act) et DMA (Digital Markets Act) va maintenant se jouer entre l’actuelle présidence slovène de l’Union européenne (jusqu’au 31 décembre) et la prochaine présidence française (du 1er janvier au 30 juin 2022). Une réunion des Etats membres des Vingt-sept est prévue le 25 novembre – « Rue de la Loi », dans les locaux de la Commission européenne à Bruxe l le s – s o u s le thème de « Compétitivité » dans le marché intérieur et l’industrie.

Pays d’origine ou de destination ?
Si la présidence du Conseil de l’Union européenne (UE) est tournante, au rythme semestriel, la présidence de la Commission européenne – actuellement Ursula von der Leyen et son bras armé digital Margrethe Vestager (photo) – poursuit son mandat de cinq ans jusqu’à fin 2024 (renouvelable une fois). L’exécutif européen entend bien être doté d’ici-là de pouvoirs pour veiller à la bonne application des deux propositions de règlement – DSA et DMA – qu’elle avait présentées le 15 décembre 2020, il y a près d’un an. Dans le projet de compromis du DSA daté du 18 novembre, que Edition Multimédi@ s’est procuré (1), il est prévu que « la Commission [européenne] dispose des pouvoirs de supervision et d’application des obligations applicables aux très grandes plateformes en ligne ou aux très grands moteurs de recherche en ligne ». Ce projet de texte sur le « marché unique des services numériques » sera soumis, comme celui sur les « marchés contestables et équitables dans le secteur numérique », aux gouvernements des Etats membres qui se réunissent donc le 25 novembre pour tenter d’adopter une position commune sur la régulation de l’Internet. Sont aussi prévues, à l’ordre du jour (2), des délibérations législatives sur le projet de compromis du DMA, daté lui du 5 novembre et que nous sommes également procurés (3).
L’un des points de divergence entre les Etats européens portait sur le principe du pays d’origine, qui, dans la proposition initiale de la Commission européenne, donne compétence transfrontalière au pays où l’entreprise numérique est établie, contrairement au principe du pays de destination. Des pays, dont la France, ont milité contre ce principe du pays d’origine, préféré par des pays comme l’Irlande ou le Luxembourg où de nombreuses Big Tech ont leur siège social européen. Par exemple, Google/ YouTube, Facebook, Microsoft et Apple ont leur quartier général européen respectif en Irlande (à la fiscalité super attractive de 12,5 %) – les trois premiers à Dublin et le dernier à Cork. Mais une dizaine de pays de l’UE emmenés par l’Irlande justement ont fait barrage à la France en estimant que le principe du pays de destination avancée par celle-ci présentait des risques de fragmentation du marché unique numérique et risquait de devenir une usine à gaz administrative pour les plateformes digitales concernées.
« Nous défendons l’idée que la Commission [européenne] puisse jouer un rôle plus important dans la régulation directe », avait déclaré le président de la République française, Emmanuel Macron, le 22 octobre dernier à l’issue du sommet européen (4). Par la suite, de façon à limiter le principe du pays d’origine (à défaut d’avoir eu gain de cause sur le principe du pays de destination), la France a proposé que l’exécutif européen ait « une autorité exclusive » sur les très grandes plateformes en ligne transfrontalière – ce que l’on désigne à Bruxelles par le sigle VLOP (Very Large Online Platforms), pour ne pas dire GAFAM. L’idée de la présidence slovène – à laquelle adhère la France et d’autres Etats membres soucieux d’éviter les blocages et les impasses (5) – est de donner les pleins pouvoirs à la Commission européenne – et notamment à son actuelle vice-présidente Margrethe Vestager – pour ne pas laisser faire des pays comme l’Irlande si le principe du pays d’origine était appliqué dans la mise en œuvre des futurs règlements DSA et DMA.

Compromis de la présidence slovène
C’est le 26 octobre dernier que le gouvernement français a formalisé sa proposition à travers des amendements portant sur le pouvoir de régulation de la Commission européenne sur le marché unique numérique. Finalement, la France s’est ralliée au compromis de la présidence slovène : maintenir le principe du pays d’origine, renoncer à la compétence exclusive de la Commission européenne sur les VLOP, mais en revanche « il faudrait au moins trois Etats membres pour demander à l’autorité dirigeante d’un autre pays d’ouvrir une enquête » à l’encontre d’une plateforme numérique. Et dans le cas où un Etat membre (via son autorité de la concurrence ou celle de la protection des données par exemple) serait en désaccord avec au moins un autre pays européen, ou à l’inverse ne prenait aucune mesure, la Commission européenne serait en droit de reprendre la main sur l’affaire. « Les conclusions préliminaires de l’enquête seraient ensuite communiquées au conseil d’administration des “coordonnateurs des services numériques” [ou Digital Services Coordinators (DSC), ndlr], qui rendra son avis à la Commission européenne qui en tiendra compte dans sa décision finale ». Après cette procédure d’enquête, l’exécutif européen devra faire part – dans un délai de deux mois – de sa décision contraignante pour l’autorité nationale concernée.

Pouvoirs de la Commission européenne
La Commission européenne pourrait devenir un super régulateur vis-à-vis des GAFAM, en ayant à trancher sur des différends portant sur les contenus circulant sur les grandes plateformes transfrontalières (contenus illicites, fausses informations, œuvres piratées, violations de la vie privée, etc.). La modération des échanges sur les réseaux sociaux tels que Facebook, Twitter, TikTok ou Snapchat pourrait par exemple être délicate pour l’exécutif européen, chargé de s’assurer que les contenus illicites et les cyberhaines sont bannis, car cela pourrait heurter dans certains cas les sensibilités nationales et porter atteinte à la liberté d’expression. Egalement délicats à réguler, les « deepfake » seront, eux, dans le viseur du futur règlement Artificial Intelligence Act (lire p. 4). Quant à la lutte contre les fake news, la désinformation et aux rumeurs non fondées, elle ne s’appuiera pas directement sur le règlement DSA mais sur le code de bonnes pratiques lancé en 2018 par la Commission européenne avec Google, Facebook, Twitter, Microsoft, Mozilla et TikTok, ainsi qu’avec des entreprises du secteur de la publicité. Ce « Code européen de bonnes pratiques contre la désinformation » a été revisité en mai dernier (6) après qu’il ait été jugé insuffisant par une autre vise-présidente de la Commission européenne, Véra Jourová, (chargée, elle, des valeurs et de la transparence), et par la Cour des comptes européenne dans un rapport publié en juin dernier (7). Ce dispositive d’auto-régulation est en train d’être durci avec les plateformes et acteurs concernés afin qu’une nouvelle version renforcée soit opérationnelle début 2022. Du côté des industries culturelles cette fois, les attentes sont élevées et les actions de lobbying aussi (8). Pour elles – musique, audiovisuel, presse, livre, photo, télévision, sports, jeux vidéo, etc. –, le projet de règlement DSA est déjà « une occasion manquée et un pas en arrière ». Plus d’une vingtaine d’organisations culturelles les représentant l’ont fait savoir directement à la présidence slovène, à la rapporteure du DSA au Parlement européen, Christel Schaldemose (9), ainsi qu’aux Etats membres, dans une « lettre ouverte » datée du 26 octobre dernier (10). « Si les propositions, dans leur forme actuelle, étaient approuvées, le DSA affaiblirait le régime actuel de responsabilité [des plateformes numériques ou hébergeur, ndlr] et aurait un effet néfaste sur les normes et les bonnes pratiques existantes en matière de traitement des contenus et activités illégaux, y compris les violations en ligne du droit d’auteur et des droits voisins », mettent en garde les industries culturelles. Parmi les signataires de cette missive, il y a par exemple l’IFPI pour les producteurs de musique enregistrée (dont fait partie le Snep en France), la FEP pour les éditeurs de livre (dont est membre le SNE en France), Eurocinema pour les producteurs cinématographiques et audiovisuels (dont font partie l’UPC, le SPI ou l’ARP en France), ou encore la Gesac pour les sociétés d’auteurs et de compositeurs (donc la Sacem). En revanche, la presse n’est curieusement pas représentée. Dans leur « signal d’alarme », les industries culturelles s’en prennent à la « sphère de sécurité » (safe harbour) aménagée pour les moteurs de recherche qui bénéficient, selon elles, d’« une immunité large et injustifiée » – alors qu’ils sont tenus par ailleurs de supprimer promptement et efficacement les contenus illicites. « Nous sommes également très préoccupés par les propositions prévoyant que les services intermédiaires puissent continuer à bénéficier des privilèges du safe harbour », ajoutent les signataires. Ils fustigent aussi « l’introduction de délais spécifiques (même supérieurs) pour la suppression de contenu illicites [qui] affaiblirait considérablement l’obligation actuelle de prendre des mesures “expéditives” ». « Pas assez », disent les industries culturelles Les industries culturelles préconisent au contraire « le “retrait rapide” autrement dit “le plus rapidement possible” pour tout le contenu [illicites ou piratés, ndlr], et même “immédiatement” pendant la diffusion en direct [de retransmission d’événements sportifs par exemple, ndlr] et pour le contenu qui a une sensibilité particulière au temps ». Dernier grief : la vingtaine d’organisations culturelles demandent à ce « que le champ d’application des obligations soit étendu pour assurer la traçabilité des utilisateurs professionnels (Know Your Business Customer) afin de s’attaquer au grave problème des opérateurs illégaux agissant à l’échelle commerciale et se cachant derrière de fausses identités ». A suivre. @

Charles de Laubier

En bannissant sans limite Donald Trump, les réseaux sociaux Facebook et Twitter ont dépassé les bornes

Persona non grata sur des réseaux sociaux, l’ex-45e président des Etats-Unis Donald Trump – décidé à briguer un nouveau mandat en 2024 – fait l’objet d’un débat sur la régulation mondiale de l’Internet. Facebook, Twitter ou encore YouTube, sociétés privées devenues censeurs sans juge, mettent à mal la liberté d’expression.

(Finalement, le 4 juin 2021, Facebook a décidé de suspendre pour deux ans Donald Trump)

Il n’a plus rien à perdre. Quarante-cinquième président des Etats-Unis (janvier 2017-janvier 2021), Donald J. Trump (photo) – qui aura 75 ans le 14 juin prochain – compte bien se représenter à la prochaine présidentielle américaine de 2024 afin de reprendre sa revanche et de tenter d’être le 47e locataire de la Maison-Blanche. Car dans le monde réel, le turbulent milliardaire n’a pas été banni ni même jugé devant les tribunaux pour les faits qui lui sont reprochés, à savoir d’avoir « encouragé » – sur Facebook – ses partisans à envahir le Capitole des Etats-Unis lors de l’émeute du 6 janvier dernier. En réalité, le mauvais perdant n’a pas explicitement incité – ni encore moins ordonné – l’invasion par la foule du Congrès américain, alors en plein débat sur la ratification de l’élection présidentielle ayant donné Joe Biden vainqueur, mais peut-être implicitement en clamant qu’il avait gagné l’élection présidentielle. Nuance. Ce jour-là, devenu historique, le président sortant était d’ailleurs introuvable, sauf sur Internet pour affirmer qu’on lui avait « volé » l’élection en organisant une « fraude massive ». Jugé coupable le 5 mai par Facebook d’avoir, selon le numéro un des réseaux sociaux, « créé un environnement où un risque sérieux de violence était possible », Donald Trump a été exclu pour encore six mois – mais pas indéfiniment – de Facebook (où il comptait 35 millions d’amis) et d’Instagram (24 millions d’abonnés).

Entreprises privées versus Premier amendement
Ses comptes avaient été supprimés le lendemain des événements du Capitole. Car dans ce monde virtuel, les entreprises privées telles que Facebook ou Twitter ne sont pas soumises au Premier amendement de la Constitution des Etats-Unis d’Amérique interdisant de limiter la liberté d’expression. Donald Trump a ainsi été condamné dès le 7 janvier dernier au bannissement par ces réseaux sociaux tout puissants. « Les entreprises privées ne sont pas tenues par le Premier amendement. Et donc, il [Donald Trump] n’a pas le droit au Premier amendement. C’est un client. Facebook n’est pas un gouvernement, et il [l’ex-président] n’est pas un citoyen de Facebook », a d’ailleurs bien expliqué le 9 mai dernier Michael McConnell, coprésident du « conseil de surveillance » de Facebook, dans un entretien accordé à la chaîne d’information en continu américaine Fox News.

« L’erreur » de Facebook et de Twitter
Et sur sa lancée, le spécialiste du droit constitutionnel et professeur à Stanford a expliqué comment ce jury « indépendant » – appelé en anglais Oversight Board, où il a été nommé il y a un an parmi les vingt membres – a obtenu de la firme de Mark Zuckerberg que Donald Trump soit suspendu provisoirement de Facebook et d’Instagram et non sur une durée indéfinie voire ad vitam aeternam : « Ce que nous avons dit, c’est qu’[il n’était] pas justifié de [le] supprimer indéfiniment [comme envisagé initialement par Facebook, ndlr], qu’ils [les dirigeants de Facebook et d’Instagram] n’ont fourni aucune raison pour cela, que ce n’est pas une disposition de leur règlement, que c’est une erreur. Et nous leur avons donné un certain temps pour (…) mettre de l’ordre dans leur maison ».
Dans un tweet du 5 mai, l’Oversight Board, cette sorte d’ombudsman mondial, a même lancé : « Facebook a enfreint ses propres règles en imposant une suspension “indéfinie” » (1). Autrement dit, le groupe aux réseaux sociaux planétaires doit faire le ménage dans ses « règles chaotiques », « non transparentes », « pas claires », « incohérentes en elles » (2). Le « conseil de surveillance », qui a estimé nécessaire de faire des recommandations à la firme de Menlo Park (Californie) sur la façon de mettre de l’ordre dans ses règles pour les rendre plus acceptables, a donc décidé de maintenir jusqu’à début novembre 2021 l’interdiction faite à l’ancien président des Etats-Unis et le temps pour Facebook durant cette période de clarifier sa politique interne en général et vis-à-vis du « puni » en particulier. C’est un peu comme renvoyer dos à dos Trump et Zuckerberg. « Le conseil de surveillance confirme la suspension de l’ancien président Trump mais estime que la sanction de Facebook n’était pas opportune », déclarait le 5 mai l’organe privé de régulation (3) au moment de rendre son verdict sur « le cas 2021-001-FB-FBR » (4).
L’instance « indépendante » aux allures de cour suprême, financée par Facebook, a été créée pour juger et dire « quels contenus supprimer, quels contenus laisser en ligne et pourquoi ». C’est là que le bât blesse. Ecarté virtuellement « pour avoir encouragé les émeutiers » du Capitole (5), mais plus que jamais réellement présent dans la vraie vie pour se préparer à la campagne présiden-tielle de 2024, Donald Trump est devenu un cas d’école pour la régulation mondiale de l’Internet. D’autant que celui qui fut le 45e président des Etats-Unis a aussi été évincé de Twitter, de YouTube (plateforme vidéo de Google), de Snapchat (de la société Snap) et même de Twitch (filiale d’Amazon). Cette affaire montre les limites d’une régulation privée par des entreprises privées, à savoir une auto-régulation sans intervention du juge. Le verdict du tandem « Facebook- Oversight Board » crée un malaise bien au-delà du Nouveau Monde, tout comme son éviction à vie de Twitter (où le twittos @realDonaldTrump avait 89 millions d’abonnés) en début d’année et pour les mêmes raisons. Et ce, là aussi, sans que la firme de Jack Dorsey ne soit liée par le Premier amendement garantissant la liberté d’expression et sans qu’aucun juge n’ait eu à se prononcer sur cette sentence aux limites de l’arbitraire. Twitter a même enfoncé le clou en suspendant le 6 mai dernier plusieurs comptes qui relayaient des messages postés par l’ancien président des Etats-Unis sur sa nouvelle plateforme numérique lancée le 4 mai et baptisée « From the Desk of Donald J. Trump » (6) (*) (**). Celle-ci préfigure sous forme de blog ce que sera le futur réseau social en gestation du candidat à l’élection présidentielle de 2024. Le site web « Depuis le bureau de Donald J. Trump » renvoie aussi vers sa campagne « Save America » pour lever des fonds et où l’on peut lire « Le président Trump est toujours BANNI de Facebook ! Ridicule ! » (7). Tout le monde pourrait en rire, s’il n’était pas question dans cette affaire hors normes du sort de la liberté d’expression sur Internet et, partant, dans les démocraties dignes de ce nom. Que l’on soit partisan de Trump – passé quand même de 63 millions d’électeurs en 2016 à plus de 74 millions en 2020 – ou hostile à sa politique clivante et nationaliste, son cas est sans précédent en matière d’auto-régulation des réseaux sociaux.
La firme de « Zuck » a six mois pour trancher le dilemme que lui pose Donald Trump. Il y a fort à parier que le PDG cofondateur de Facebook réhabilitera l’impétrant dans sa décision finale attendue pour début novembre. Pendant que la pression monte aux Etats-Unis pour que soit réformée la section 230 du « Communications Decency Act » de 1996, qui accorde une « immunité » judiciaire aux plateformes numériques quant aux contenus mis en ligne par leurs utilisateurs (8), l’Union européenne est plus que sceptique sur le bannissement de Trump.

Police privée : l’Europe très sceptique
« Qu’un PDG puisse débrancher le haut-parleur du président des Etats-Unis sans autre forme de contrôle et de contrepouvoir fait plus qu’interpeller », a estimé le commissaire européen au Marché intérieur, Thierry Breton, dans une tribune publiée le 10 janvier (9). La chancelière allemande Angela Merkel a quant à elle jugé « problématique » cette éviction du président américain. De son côté, la Grande- Bretagne a présenté le 12 mai un projet de loi « Online Safety Bill » (10) en vue d’interdire aux plateformes numériques de discriminer les points de vue politique et de protéger la liberté d’expression avec possibilité de faire appel en cas de suppression de contenus. La police privée a des limites. @

Charles de Laubier

Les « CSA » européens veulent plus de la Commission européenne contre les fake news

Les Google, Facebook et autres Twitter ont été contraints de se constituer en « police privée » pour chasser sur Internet les fausses informations. Liberté d’expression et liberté d’informer sont passées au crible pour supprimer les infox. Mais pour les « CSA » européens, cela ne pas assez loin.

Le groupe des régulateurs européens des médias audiovisuels, l’Erga (1), a publié le 6 mai son « rapport sur la désinformation et l’évaluation de la mise en œuvre du code de pratique » pour lutter contre les fake news. Ce rapport final intervient deux ans après l’adoption par la Commission européenne de mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 par « un groupe d’experts de haut niveau » pour lutter contre la désinformation en ligne (2).

Autorégulation des acteurs du Net
Dans la foulée, le 24 avril 2018, la Commission européenne publiait une communication intitulée « Lutter contre la désinformation en ligne : une approche européenne » (3), qui préconisait un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits dans le cadre d’une démarche d’autorégulation des acteurs du Net. Ces derniers ont été fermement invités à coopérer avec l’exécutif européen dans cette croisade contre les mensonges, les manipulations et les informations erronées. Le 16 octobre 2018, les premiers signataires de ce « code de bonne conduite » furent Facebook, Google, Twitter et Mozilla (éditeur du navigateur Firefox).
Dans le même temps, l’Edima (European Digital Media Association) – lobby basé à Bruxelles et représentant les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que Airbnb, Allegro, eBay, Expedia, Mozilla Mozilla, OLX, Snap, TripAdvisor, Twitter, Verizon Media, Yelp et Spotify – signait également ce code « anti-fake news », tout comme les associations professionnelles représentant l’industrie de la publicité et les annonceurs (EACA, IAB Europe, WFA et UBA). Microsoft a également rejoint le 22 mai 2019 les entreprises signataires. C’est lors des élections européennes de mai 2019 que les plateformes numériques participantes – Facebook, Google et Twitter en tête – ont publié des rapports mensuels sur la mise en œuvre de leurs actions dans le cadre de ce « code de pratique sur la désinformation » et dans un souci de « transparence de la publicité politique ». Cinq relevés mensuels ont été publiés sur cette période électorale, de janvier à mai 2019, dont le dernier publié il y a un an, le 14 juin (4). L’Erga en a fait la synthèse dans un rapport « monitoring » intermédiaire, en concluant que les GAFAM pouvaient mieux faire. « Google, Twitter et Facebook ont fait des progrès évidents dans la mise en œuvre des engagements du “Code of Practice on Disinformation” en créant une procédure ad hoc pour l’identification des publicités politiques et de leurs sponsors, et en rendant accessible au public les publicités en question. Il s’agissait d’un effort sérieux visant à accroître la transparence. Cependant, bien que les plateformes aient fourni des informations substantielles qui pouvaient être significatives pour les utilisateurs individuels, le suivi indique que les bases de données auraient dû être davantage développées [notamment plus détaillées, ndlr] afin de fournir les outils et les données nécessaires pour assurer la qualité électorale » (5). Les régulateurs européens de l’audiovisuel avaient en outre déjà constaté que les notions de « désinformation » et de « publicité politique » n’ont pas de définitions partagées par les Etats membres, dont certains n’ont même aucune définition des publicités politiques. A cela s’ajoutait aussi le fait que la plupart des « CSA » en Europe disposaient de compétences, de pouvoirs et de ressources juridiques très limités pour s’engager dans l’activité de surveillance des plateformes en ligne. Il y a un an, l’Erga estimait alors que l’approche de coopération en matière de régulation – appelée aussi co-régulation – adoptée par les institutions européennes ne devait pas empêcher d’aller plus loin en rendant exécutoires ou contraignantes (enforceable) les dispositions du code « anti-infox ».

Renforcer les autorités de surveillance
Cela supposait aussi, selon l’Erga, que les autorités de régulation chargées de surveiller le respect de ces dispositions par les plateformes du Net disposent également d’outils, d’accès aux informations et de l’autonomie nécessaires pour s’acquitter de cette tâche. « Il est crucial que les autorités de surveillance [« monitors », dans le texte, ndlr] aient la possibilité de créer leurs propres requêtes, filtres et outils d’analyse qui devraient être orientés vers les données brutes, non filtrées et non gérées dans les bases de données des plateformes numériques. L’information devrait être fournie de manière à leur permet également d’établir facilement le volume de publicité sur une période de temps définie, de comprendre des informations détaillées sur les pages où les publicités apparaissent, de connaître qui financent ces publicités, et d’identifier le problème pertinent pour chaque annonce en question », avait encore conclu l’Erga. Toujours dans son rapport intermédiaire de juin 2019, le groupe des régulateurs européens des médias audiovisuels avait appelé la Commission européenne à aller plus loin et au-delà de la seule publicité politique, « première étape d’un processus qui, inévitablement, rapprochera les deux parties (régulateurs et plateformes) tant au niveau européen qu’au niveau national ». L’Erga souhaitait « un niveau de coopération plus élevé ». Un an après son rapport intermédiaire, force est de constater que les premières recommandations de l’Erga n’ont toujours pas été suivis d’effet.

Mais respecter la liberté d’expression
Le groupe des régulateurs européens des médias audiovisuels en a donc remis une couche à travers son rapport final publié le 6 mai dernier (6). « Malgré des efforts notables fournis par les plateformes, l’application de ce code n’est pas encore optimale, à ce jour », insiste le groupe des « CSA » européens auprès de la Commission européenne. Il lui recommande d’agir maintenant dans trois directions pour améliorer la lutte contre la dissémination des infox en ligne : « Améliorer le code existant, étendre ses engagements et explorer de nouveaux outils pour tendre vers une régulation plus efficace, cette dernière étant assortie d’obligations claires de rendre compte selon des procédures davantage harmonisées et dans des délais appropriés », résume le communiqué du CSA en France, daté du 6 mai. Et le président de l’Erga, Tobias Schmid (photo) d’enfoncer le clou : « La lutte contre la désinformation est de la plus haute importance pour notre démocratie. Nous devons préserver la valeur du discours public sur Internet en empêchant la diffusion délibérée de fausses informations tout en respectant la liberté d’expression. (…) Mais un danger doit être combattu là où il se présente. Par conséquent, nous devons également trouver des moyens de renforcer les efforts des [plateformes numériques] signataires pour accroître l’efficacité des mesures du code et de leurs activités de reporting ». L’Allemand Tobias Schmid est par ailleurs directeur de l’autorité médiatique du plus puissant Land, la Rhénaniedu- Nord-Westphalie, ainsi que chargé des Affaires européennes de la DLM qui réunit en Allemagne les directeurs des autorités médiatiques. Au-delà des publicités politiques, l’Erga estime que la pandémie du coronavirus démontre qu’il faut aller plus loin dans la lutte contre la désinformation : « La prolifération de fausses nouvelles, guidées par des objectifs politiques et/ou axés sur le profit, qui accompagne la récente éclosion de covid-19, n’est qu’un exemple de la façon dont les stratégies de manipulation de l’information posent de graves menaces à la formation de l’opinion publique. Il est important de démystifier de telles nouvelles pour protéger les valeurs démocratiques et contrer les tentatives d’incitation à la haine et à la violence ». A nouveau, les régulateurs de l’audiovisuel recommandent que l’ensemble des plateformes numérique de contenus sur Internet opérant en Europe adhèrent à ce code contre la désinformation. Et concrètement, ils appellent à une bien plus grande transparence, y compris des données beaucoup plus détaillées (en particulier des données par pays) sur la façon dont les signataires mettent en œuvre le code « antiinfox ». De façon à uniformiser l’application de ce code de bonne conduite, l’Erga suggère que les plateformes mettent à disposition des ensembles de data, des outils de suivi des données et des informations spécifiques à chaque pays donné pour permettre au régulateur national un suivi indépendant. L’Erga propose en outre d’aider la Commission européenne (au niveau de sa DG Connect) à établir des définitions pertinentes, y compris en matière de publicité politique, ainsi que des lignes directrices pour assurer une approche plus cohérente entre les Etats membres.
Et pour que la lutte contre les fake news soit vraiment efficace, se limiter à Google, Facebook ou Twitter ne suffit plus, toujours selon les « CSA » européens : « Le nombre de signataires du code de pratique sur la désinformation est limité et ne comprend pas certaines plateformes importantes, les services d’information et de communication et les acteurs de l’industrie de la publicité qui sont actifs dans l’Union européenne. Par conséquent, tous les efforts possibles doivent être déployés pour augmenter le nombre de plateformes signataires du code, afin d’éviter les asymétries réglementaires ». Quant à l’auto-régulation flexible actuelle, si elle a pu être un premier pas important et nécessaire, elle a montré aussi ses limites et son insuffisante efficacité. Pour contrer la désinformation en ligne, il est aussi suggéré à la Commission européenne de passer à « une approche de co-régulation ». Aussi, l’Erga se propose de l’aider en 2020 à identifier les mesures spécifiques et pour les plateformes les indicateurs de performance-clés – les « KPI », disent les Anglo-saxons, pour Key Performance Indicators. Last but not the least : l’Erga veut aider Bruxelles à définir des outils nécessaires aux activités de surveillance (monitoring) et d’exécution des autorités de régulation nationales.

Vers une loi européenne « anti-infox » ?
Mais les régulateurs européens de l’audiovisuel et des médias veulent que les institutions européennes aillent encore plus loin, quitte « à envisager une régulation fixée par la loi, comme l’ont fait certains Etats membres tels que la France (7) ou l’Allemagne (8) ». Cette régulation pourrait être prévue par le futur Digital Services Act (DSA) que doit présenter (lire p. 3) la Commission européenne d’ici la fin de l’année. @

Charles de Laubier