DSA & DMA : compromis numérique en vue entre les Etats membres, à défaut de consensus

Les deux propositions de règlement, l’un pour un « marché unique des services numériques » (DSA) et l’autre sur les « marchés contestables et équitables dans le secteur numérique » (DMA), entrent dans leur dernière ligne droite législative. La Commission européenne en a été l’initiatrice il y a un an.

L’issue des tractations et des lobbyings autour des deux propositions de règlement DSA (Digital Services Act) et DMA (Digital Markets Act) va maintenant se jouer entre l’actuelle présidence slovène de l’Union européenne (jusqu’au 31 décembre) et la prochaine présidence française (du 1er janvier au 30 juin 2022). Une réunion des Etats membres des Vingt-sept est prévue le 25 novembre – « Rue de la Loi », dans les locaux de la Commission européenne à Bruxe l le s – s o u s le thème de « Compétitivité » dans le marché intérieur et l’industrie.

Pays d’origine ou de destination ?
Si la présidence du Conseil de l’Union européenne (UE) est tournante, au rythme semestriel, la présidence de la Commission européenne – actuellement Ursula von der Leyen et son bras armé digital Margrethe Vestager (photo) – poursuit son mandat de cinq ans jusqu’à fin 2024 (renouvelable une fois). L’exécutif européen entend bien être doté d’ici-là de pouvoirs pour veiller à la bonne application des deux propositions de règlement – DSA et DMA – qu’elle avait présentées le 15 décembre 2020, il y a près d’un an. Dans le projet de compromis du DSA daté du 18 novembre, que Edition Multimédi@ s’est procuré (1), il est prévu que « la Commission [européenne] dispose des pouvoirs de supervision et d’application des obligations applicables aux très grandes plateformes en ligne ou aux très grands moteurs de recherche en ligne ». Ce projet de texte sur le « marché unique des services numériques » sera soumis, comme celui sur les « marchés contestables et équitables dans le secteur numérique », aux gouvernements des Etats membres qui se réunissent donc le 25 novembre pour tenter d’adopter une position commune sur la régulation de l’Internet. Sont aussi prévues, à l’ordre du jour (2), des délibérations législatives sur le projet de compromis du DMA, daté lui du 5 novembre et que nous sommes également procurés (3).
L’un des points de divergence entre les Etats européens portait sur le principe du pays d’origine, qui, dans la proposition initiale de la Commission européenne, donne compétence transfrontalière au pays où l’entreprise numérique est établie, contrairement au principe du pays de destination. Des pays, dont la France, ont milité contre ce principe du pays d’origine, préféré par des pays comme l’Irlande ou le Luxembourg où de nombreuses Big Tech ont leur siège social européen. Par exemple, Google/ YouTube, Facebook, Microsoft et Apple ont leur quartier général européen respectif en Irlande (à la fiscalité super attractive de 12,5 %) – les trois premiers à Dublin et le dernier à Cork. Mais une dizaine de pays de l’UE emmenés par l’Irlande justement ont fait barrage à la France en estimant que le principe du pays de destination avancée par celle-ci présentait des risques de fragmentation du marché unique numérique et risquait de devenir une usine à gaz administrative pour les plateformes digitales concernées.
« Nous défendons l’idée que la Commission [européenne] puisse jouer un rôle plus important dans la régulation directe », avait déclaré le président de la République française, Emmanuel Macron, le 22 octobre dernier à l’issue du sommet européen (4). Par la suite, de façon à limiter le principe du pays d’origine (à défaut d’avoir eu gain de cause sur le principe du pays de destination), la France a proposé que l’exécutif européen ait « une autorité exclusive » sur les très grandes plateformes en ligne transfrontalière – ce que l’on désigne à Bruxelles par le sigle VLOP (Very Large Online Platforms), pour ne pas dire GAFAM. L’idée de la présidence slovène – à laquelle adhère la France et d’autres Etats membres soucieux d’éviter les blocages et les impasses (5) – est de donner les pleins pouvoirs à la Commission européenne – et notamment à son actuelle vice-présidente Margrethe Vestager – pour ne pas laisser faire des pays comme l’Irlande si le principe du pays d’origine était appliqué dans la mise en œuvre des futurs règlements DSA et DMA.

Compromis de la présidence slovène
C’est le 26 octobre dernier que le gouvernement français a formalisé sa proposition à travers des amendements portant sur le pouvoir de régulation de la Commission européenne sur le marché unique numérique. Finalement, la France s’est ralliée au compromis de la présidence slovène : maintenir le principe du pays d’origine, renoncer à la compétence exclusive de la Commission européenne sur les VLOP, mais en revanche « il faudrait au moins trois Etats membres pour demander à l’autorité dirigeante d’un autre pays d’ouvrir une enquête » à l’encontre d’une plateforme numérique. Et dans le cas où un Etat membre (via son autorité de la concurrence ou celle de la protection des données par exemple) serait en désaccord avec au moins un autre pays européen, ou à l’inverse ne prenait aucune mesure, la Commission européenne serait en droit de reprendre la main sur l’affaire. « Les conclusions préliminaires de l’enquête seraient ensuite communiquées au conseil d’administration des “coordonnateurs des services numériques” [ou Digital Services Coordinators (DSC), ndlr], qui rendra son avis à la Commission européenne qui en tiendra compte dans sa décision finale ». Après cette procédure d’enquête, l’exécutif européen devra faire part – dans un délai de deux mois – de sa décision contraignante pour l’autorité nationale concernée.

Pouvoirs de la Commission européenne
La Commission européenne pourrait devenir un super régulateur vis-à-vis des GAFAM, en ayant à trancher sur des différends portant sur les contenus circulant sur les grandes plateformes transfrontalières (contenus illicites, fausses informations, œuvres piratées, violations de la vie privée, etc.). La modération des échanges sur les réseaux sociaux tels que Facebook, Twitter, TikTok ou Snapchat pourrait par exemple être délicate pour l’exécutif européen, chargé de s’assurer que les contenus illicites et les cyberhaines sont bannis, car cela pourrait heurter dans certains cas les sensibilités nationales et porter atteinte à la liberté d’expression. Egalement délicats à réguler, les « deepfake » seront, eux, dans le viseur du futur règlement Artificial Intelligence Act (lire p. 4). Quant à la lutte contre les fake news, la désinformation et aux rumeurs non fondées, elle ne s’appuiera pas directement sur le règlement DSA mais sur le code de bonnes pratiques lancé en 2018 par la Commission européenne avec Google, Facebook, Twitter, Microsoft, Mozilla et TikTok, ainsi qu’avec des entreprises du secteur de la publicité. Ce « Code européen de bonnes pratiques contre la désinformation » a été revisité en mai dernier (6) après qu’il ait été jugé insuffisant par une autre vise-présidente de la Commission européenne, Véra Jourová, (chargée, elle, des valeurs et de la transparence), et par la Cour des comptes européenne dans un rapport publié en juin dernier (7). Ce dispositive d’auto-régulation est en train d’être durci avec les plateformes et acteurs concernés afin qu’une nouvelle version renforcée soit opérationnelle début 2022. Du côté des industries culturelles cette fois, les attentes sont élevées et les actions de lobbying aussi (8). Pour elles – musique, audiovisuel, presse, livre, photo, télévision, sports, jeux vidéo, etc. –, le projet de règlement DSA est déjà « une occasion manquée et un pas en arrière ». Plus d’une vingtaine d’organisations culturelles les représentant l’ont fait savoir directement à la présidence slovène, à la rapporteure du DSA au Parlement européen, Christel Schaldemose (9), ainsi qu’aux Etats membres, dans une « lettre ouverte » datée du 26 octobre dernier (10). « Si les propositions, dans leur forme actuelle, étaient approuvées, le DSA affaiblirait le régime actuel de responsabilité [des plateformes numériques ou hébergeur, ndlr] et aurait un effet néfaste sur les normes et les bonnes pratiques existantes en matière de traitement des contenus et activités illégaux, y compris les violations en ligne du droit d’auteur et des droits voisins », mettent en garde les industries culturelles. Parmi les signataires de cette missive, il y a par exemple l’IFPI pour les producteurs de musique enregistrée (dont fait partie le Snep en France), la FEP pour les éditeurs de livre (dont est membre le SNE en France), Eurocinema pour les producteurs cinématographiques et audiovisuels (dont font partie l’UPC, le SPI ou l’ARP en France), ou encore la Gesac pour les sociétés d’auteurs et de compositeurs (donc la Sacem). En revanche, la presse n’est curieusement pas représentée. Dans leur « signal d’alarme », les industries culturelles s’en prennent à la « sphère de sécurité » (safe harbour) aménagée pour les moteurs de recherche qui bénéficient, selon elles, d’« une immunité large et injustifiée » – alors qu’ils sont tenus par ailleurs de supprimer promptement et efficacement les contenus illicites. « Nous sommes également très préoccupés par les propositions prévoyant que les services intermédiaires puissent continuer à bénéficier des privilèges du safe harbour », ajoutent les signataires. Ils fustigent aussi « l’introduction de délais spécifiques (même supérieurs) pour la suppression de contenu illicites [qui] affaiblirait considérablement l’obligation actuelle de prendre des mesures “expéditives” ». « Pas assez », disent les industries culturelles Les industries culturelles préconisent au contraire « le “retrait rapide” autrement dit “le plus rapidement possible” pour tout le contenu [illicites ou piratés, ndlr], et même “immédiatement” pendant la diffusion en direct [de retransmission d’événements sportifs par exemple, ndlr] et pour le contenu qui a une sensibilité particulière au temps ». Dernier grief : la vingtaine d’organisations culturelles demandent à ce « que le champ d’application des obligations soit étendu pour assurer la traçabilité des utilisateurs professionnels (Know Your Business Customer) afin de s’attaquer au grave problème des opérateurs illégaux agissant à l’échelle commerciale et se cachant derrière de fausses identités ». A suivre. @

Charles de Laubier

Les « CSA » des Vingt-sept veulent leur ERGA+

En fait. Le 5 juillet, l’ERGA, groupe des régulateurs européens des services de médias audiovisuels réunissant les « Conseil supérieur de l’audiovisuel » des Vingt-sept, a publié ses « propositions visant à renforcer le Digital Service Act » (DSA) en cours d’examen au Parlement européen. Parmi elles : un ERGA+ face aux GAFAM.

En clair. A grands acteurs, grands moyens. L’ERGA (1) a adopté des propositions visant à renforcer, « en ce qui concerne la réglementation du contenu en ligne », la future loi européenne sur les services numériques – le Digital Services Act (DSA). Lors de sa 15e réunion plénière le 1er juin dernier en visioconférence, l’ERGA a discuté de ses propositions fin juin, avant de publier son position paper le 5 juillet. Dans ce document de 37 pages (2), le groupe européen des « CSA » vise notamment les grands acteurs de l’Internet – appelés les « VLOP » (Very Large Online Platforms).
L’ERGA suggère à la Commission européenne de se transformer en « ERGA+ », aux pouvoirs, aux ressources et au nombre de membres renforcés. Et ce, afin de se doter d’« une solide capacité de coordination et d’expertise » (pouvoirs d’enquêtes, d’audits et d’analyses), voire d’« arbitrage », dans le cadre de la « réglementation systémique » de chaque VLOP (3) et de l’efficacité accrue du « principe du pays d’origine ». Ainsi, l’ERGA+ viendrait en soutien de la « réglementation efficace » des plateformes de contenu en ligne – en particulier des GAFAM et autres VLOP – « à travers un vaste cadre de coopération transfrontalière pour les [« CSA » européens] dans la mise en œuvre du DSA ». Le super-ERGA ainsi constitué pourrait, dans un souci de cohérence sur le marché unique numérique, « émettre des recommandations adressées à des groupes d’acteurs » de l’Internet, « adopter des définitions réglementaires et des lignes directrices communes », ainsi qu’« établir des indicateurs de performance-clés ». Et « assurer l’arbitrage » de différends en cas d’échec de la médiation entre une plateforme numérique et un ou plusieurs « CSA ». L’ERGA+ pourrait aussi émettre un avis sur les rapports de transparence soumis par les GAFAM et sur les décisions concernant chacun d’eux prises par les gendarmes des services de médias audiovisuels (avis, sanctions, mises en demeure, …).
Ce rôle – que les « CSA » veut faire passer de consultatif à décisionnel en tant que nouvel « organe européen indépendant » – pourrait être aussi extra-européen « vis-à-vis d’acteurs non européens fournissant des services de plateformes de contenu en ligne dans l’UE ». Et le groupe des « CSA » de préciser : «Comme aujourd’hui, la Commission européenne, bien qu’elle ne soit pas membre de l’ERGA+, devrait participer à ses réunions ». @

Digital Services Act et Digital Markets Act : projets règlements européens sous influences

La proposition de règlement pour un « marché unique des services numériques » (DSA) et la proposition de règlement sur les « marchés contestables et équitables dans le secteur numérique » (DMA) sont sur les rails législatives. Chacun des rapporteurs est très courtisé par les lobbies.

La commission du marché intérieur et de la protection des consommateurs (Imco) du Parlement européen s’est réunie le 21 juin dernier pour examiner les projets de rapports de respectivement Christel Schaldemose (photo de gauche), rapporteur du projet de règlement DSA (Digital Services Act), et de Andreas Schwab (photo de droite), rapporteur du projet de règlement DMA (Digital Markets Act). Dans les deux cas, le délai pour le dépôt des amendements avait été fixé au 1er juillet.

Des rapporteurs influencés par les lobbies
La Danoise socialiste et l’Allemand démocrate-chrétien sont les rapporteurs les plus courtisés du moment par les lobbies. Et pour cause : leur projet de rapport respectif propose de multiples amendements au paquet législatif initialement présenté par la Commission européenne le 15 décembre 2020, composé du projet de règlement DSA, d’une part, et du projet de règlement DMA, d’autre part. Le premier texte règlementaire vise à mieux responsabiliser les plateformes Internet jusqu’alors protégées par leur statut d’hébergeur par la directive européenne « E-commerce » qui leur accorde une responsabilité limitée. Le second texte veut imposer à la dizaine de grandes plateformes numériques dites « systémiques » (dont les GAFAM) des contraintes antitrust et empêchant les abus de position dominante de certains écosystèmes.
Déjà, lors de la publication des textes il y a plus de six mois, les GAFAM avaient exprimé leur préoccupations face cette nouvelle régulation de l’Internet à venir, craignant pour « l’innovation numérique », « les droits fondamentaux », « la liberté d’expression et de création », « le secret des algorithmes » ou encore « les risques de sanctions financières » (1). Les projets de DSA (2) et de DMA (3) poursuivent leur marathon euro législatif ; ils passent à ce stade par les fourches caudines des eurodéputés réunis au sein de la décisive commission du marché intérieur et de la protection des consommateurs (Imco) où les deux rapporteurs ont été désignés fin janvier. Chacun a rendu son rapport, datés respectivement du 28 mai 2021 pour celui Christel Schaldemose sur le futur DSA et du 1er juin 2021 pour celui de Andreas Schwab sur le futur DMA. Les deux rapports actuellement examinés présentent de multiples amendements apportés aux textes législatifs qu’avaient proposés la Commission européenne. C’est dans l’élaboration de ces amendements que joue à plein le lobby des GAFAM et bien d’autres entreprises, organisations ou personnes « ayant apporté leur contribution à la rapporteur » (DSA) et « ayant apporté leur contribution au rapporteur » (DMA) « pour l’élaboration du projet de rapport ». Ainsi, comme ils l’ont indiqué dans une annexe de leur rapport, Christel Schaldemose a eu affaire à 56 contributeurs et Andreas Schwab à 51 contributeurs. Pour les deux projets de rapport, on retrouve les GAFAM : Google, Amazon, Facebook, Apple et Microsoft (exceptés Apple côté DSA et Microsoft côté DMA). L’eurodéputée rapporteur a aussi eu l’oreille de Alibaba, Airbnb, Huawei, Match Group, Reddit, TikTok, Wikimedia, Schibsted, Dropbox ou encore de Zalando. Elle a aussi été approchée par les organisations des GAFAM et autres Big Tech : Computer & Communications Industry Association (CCIA), Dot Europe (ex-Edima), ainsi que DigitalEurope (ex-Eicta).
Quant à l’eurodéputé rapporteur, il a aussi eu affaire de son côté à Netflix, Spotify, Snap, Expedia, Booking, Criteo, IBM, Salesforce, Kelkoo Group, DuckDuckGo ou encore à Yelp. Il a aussi été en contact avec la CCIA et la GSMA. L’Etno, association des opérateurs télécoms européens (historiques en tête), a aussi conseillé, influencé ou orienté – c’est selon – Christel Schaldemose et Andreas Schwab dans leurs travaux parlementaires. Jamais un paquet législatif européen n’a fait l’objet d’un tel lobbying intense. Ou bien, faut-il remonter à la libéralisation des télécoms de la fin des années 1990 pour retrouver une telle pression ou influence des acteurs concernés sur les travaux parlementaires.

Bras de fer entre Big Tech et l’Europe
Plus de vingt ans après le premier « paquet télécoms » (4) et plus de dix ans après le second « paquet télécoms » (5), ce nouveau « paquet DSA/DMA » est l’un des plus grands cadres règlementaires que l’Union européenne (UE) s’apprête à adopter. Les instances européennes et les industries culturelles veulent mettre au pas les GAFAM en les responsabilisant voire en les sanctionnant sur les contenus dits « illicites » qu’ils hébergent et véhiculent. Tandis que les géants du numériques plaident plus une régulation raisonnée de l’Internet pour ne pas porter atteinte aux droits fondamentaux. Les amendements contenus dans les deux projets de rapport illustrent le bras de fer qui s’opère dans les couloirs du Parlement européen et parfois sous le manteau des eurodéputés. Le salon parisien Vivatech a d’ailleurs été utilisé comme tribune par des Big Tech pour critiquer la future réglementation de l’Internet. Le 16 juin, le patron d’Apple, Tim Cook, en a profité pour mettre en garde contre notamment un DMA qui « détruirait la sécurité de l’iPhone et d’initiatives pour la vie privée ».

Conso, place de marché, pub en ligne
• Dans le projet de rapport Schaldemose de 145 pages (6) sur le « marché unique des services numériques » (DSA), plusieurs amendements vont dans le sens des consommateurs internautes et mobinautes. Par exemple, le n°1 ajoute dans les garanties du futur règlement DSA « un niveau élevé de protection des consommateurs », en plus du respect des droits fondamentaux des citoyens européens (liberté d’expression et d’information, liberté d’entreprise, droit à la non-discrimination, …). L’amendement n°4, lui, tend à « éviter un retrait excessif de contenus juridiques » en précisant que les contenus illicites sont considérés comme tels s’ils « ne sont pas conformes au droit de l’Union (européenne) ». Et Christel Schaldemose de justifier ce rajout : « Cela afin de garantir que, par exemple, une vidéo montrant une voiture qui roule trop vite ne relève pas de la définition, à moins qu’une référence à une activité illicite ne soit en soi illégale, selon le droit de l’Union ou d’un Etat membre (par exemple, des contenus pédopornographiques, des contenus à caractère terroriste, etc.) ».
Autre mesure pro-consommateur : l’amendement n°23 propose de supprimer un considérant de la Commission européenne qui prévoyait de ne pas soumettre les micro entreprises ou les petites entreprise (TPE) au règlement DSA. Motif : « Les lois sur la protection des consommateurs ne font pas la distinction entre les petites et les grandes entreprises. Les obligations [système interne de traitement des réclamations, règlement extrajudiciaire des litiges, signaleurs de confiance, mesures de lutte et de protection contre les utilisations abusives, notification des soupçons d’infraction pénale, transparence de la publicité en ligne, … (7) ndlr] devraient également s’appliquer aux micro entreprises et aux petites entreprises afin de protéger les consommateurs et les bénéficiaires des services des contenus illicites ». L’amendement n°73, lui, introduit des conditions supplémentaires pour que les places de marché en ligne ne bénéficient pas de l’exemption de responsabilité lorsqu’elles vendent des produits et services illicites. « Une plateforme en ligne ne bénéficie pas de l’exemption de responsabilité si elle ne respecte pas certaines obligations de diligence fixées dans le présent règlement ou lorsqu’un professionnel d’un pays tiers n’a pas, au sein de l’Union, d’opérateur économique responsable de la sécurité des produits. Les consommateurs seront en mesure de déposer un recours contre la plateforme en ligne et, en retour, cette dernière sera en mesure de déposer un recours contre le professionnel ». Christel Schaldemose tient d’ailleurs à respecter le principe selon lequel « ce qui est illégal hors-ligne est également illégal en ligne ».
Concernant cette fois la publicité en ligne, elle estime que « la collecte et l’utilisation généralisées des données des utilisateurs à des fins de publicité ciblée, micro-ciblée et comportementale sont devenues incontrôlables ». Aussi, l’amendement n°92 ajoute un article prévoyant que « le fournisseur de services intermédiaires est tenu, par défaut, de ne pas laisser les bénéficiaires de ses services faire l’objet de publicité ciblée, micro-ciblée et comportementale, à moins que le bénéficiaire des services n’ait donné son consentement libre, spécifique, informé et non ambigu ». Quant à l’amendement n°91, il étend la portée de la transparence de la publicité en ligne à tous les services intermédiaires (non pas seulement aux plateformes en ligne) et avec de nouvelles dispositions allant dans ce sens, y compris « un marquage visible et harmonisé » lorsqu’il s’agit de contenu provenant d’influenceurs commerciaux sur YouTube, Facebook ou autres TikTok.

Plateforme essentielle et gatekeeper
• Dans le projet de rapport Andreas Schwab de 86 pages (8) sur le « marchés contestables et équitables dans le secteur numérique » (DMA), l’amendement n°37 propose de remonter le seuil de désignation d’une plateforme numérique considérée comme « contrôleurs d’accès » (gatekeeper) : de 6,5 millions à 10 millions d’euros de chiffre d’affaires annuel, ou, si l’on considère la valorisation de l’entreprise en question, de 65 milliards à 100 milliards d’euros (capitalisation boursière moyenne ou juste valeur marchande équivalente). Le rapporteur Andreas Schwab propose en outre « d’ajouter, comme condition supplémentaire à la désignation d’entreprises en tant que contrôleurs d’accès, le fait qu’elles soient des fournisseurs non pas seulement d’un, mais, au moins, de deux services de plateforme essentiels ». Quoi qu’il en soit, les « plateformes essentielles » ayant un rôle de « contrôleurs d’accès » ne doivent pas se livrer à des pratiques déloyales, en empêchant notamment d’autres entreprises de se développer sur le marché unique numérique. @

Charles de Laubier

Internet global : la régulation nationale adaptée ?

En fait. Le 25 mars, Mark Zuckerberg, Sundar Pichai et Jack Dorsey ont été auditionnés par une commission du Congrès des Etats-Unis sur « l’extrémisme et la désinformation » véhiculés par Facebook, Google et Twitter. La régulation de l’Internet global risque de tourner en patchwork réglementaire.

En clair. La pression monte aux Etats-Unis pour que soit réformée la section 230 du « Communications Decency Act » de 1996, lequel accorde une « immunité » judiciaire aux plateformes numériques – au premier rang desquelles Facebook, Google et Twitter – quant aux contenus mis en ligne par leurs utilisateurs. Ce « bouclier » du CDA, qui ressemble à la responsabilité limitée garantie aux hébergeurs en Europe par la directive « Ecommerce » de 2000, est plus que jamais contesté jusqu’à Washington. Car les médias sociaux ne sont plus seulement hébergeurs mais aussi des modérateurs, lorsqu’ils ne sont pas eux-mêmes éditeurs. Joe Biden a déjà fait savoir (1) qu’il allait réviser cette section 230. Ni Mark Zuckerberg, ni Sundar Pichai, ni Jack Dorsey – respectivement PDG de Facebook, Google et Twitter – ne s’opposent à une nouvelle régulation du Net.
Mais le paradoxe est que ces patrons de plateformes numériques mondiales – sans frontières – raisonnent devant la commission de l’énergie et du commerce du Congrès des Etats- Unis (2) comme s’ils n’étaient présents qu’aux Etats-Unis. Ce paradoxe sous-tend le fait que les régulateurs nationaux – américains, européens (français inclus) et d’ailleurs – cherchent à encadrer des médias sociaux dont l’emprise n’est pas nationale mais mondiale. Lorsque Mark Zuckerberg appelle, dans une déposition écrite (3) la veille de son audition, à plus de responsabilité des plateformes numériques, il s’adresse aux législateurs américains, pas à leurs homologues européens, pas plus qu’aux législateurs du reste du monde. De son côté, l’Union européenne (UE) est en train de revoir la responsabilité de ces géants du Net, d’envergure internationale donc, avec deux textes législatives – le DSA (4) et le DMA (5) – en cours d’examen au sein du Conseil de l’UE et des instance préparatoires.
Etant entendu que ce futur cadre du marché unique numérique ne s’appliquera qu’aux Vingt-sept, mais pas au-delà. Il en va de même de la directive européenne de 2018 sur les services de médias audiovisuels, dite SMA (6). Censée être transposée par les Etats membres de l’UE à septembre 2020, elle étend la régulation audiovisuelle aux plateformes de streaming (médias sociaux compris). Chaque région du monde, voire chaque pays, entend réguler les géants du Net – à l’instar de la future Arcom en France –, au risque de se retrouver avec un patchwork réglementaire inefficace face à ces acteurs globaux. @

L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

FOCUS

Le droit est allergique aux surblocages
Le droit constitutionnel est peu tolérant aux « faux positifs » en matière de liberté d’expression. Les risques de surblocage ont été soulignés par la Cour suprême des Etats-Unis dans l’affaire « Reno c. ACLU » (9) dans les années 1990, et par la Cour de justice de l’Union européenne (CJUE) dans les affaires « Scarlet c. Sabam » (10) en 2011 et « Sabam c. Netlog » (11) en 2012. Ces deux dernières affaires concernaient la mise en place, à la demande d’un tribunal belge, d’un dispositif simple pour bloquer des contenus protégés par le droit d’auteur, s’appuyant sur un procédé de « hash » pour identifier les fichiers contrevenants.
La CJUE a considéré que ce procédé créait une atteinte disproportionnée à la protection des données à caractère personnel, mais également à la liberté d’expression en raison du risque de surblocage. L’outil serait incapable de détecter s’il s’agissait d’une citation, d’une parodie ou d’une autre utilisation permises par l’une des exceptions du droit d’auteur. Plus récemment, le Conseil constitutionnel a annulé deux dispositions de la loi française « Avia » (contre la cyberhaine) en raison du risque de surblocage de contenus « non manifestement illicites » (12). Pour des contenus faisant l’apologie du terrorisme, le Conseil constitutionnel a considéré que les injonctions de l’autorité administrative (13) ne constituaient pas une garantie suffisante et que les opérateurs de plateformes ne devaient pas suivre ces injonctions de manière automatique. @