Responsabilités sur le Web : ce qui change vraiment avec le règlement sur les services numériques

Même si le DSA a maintenu la « non-responsabilité » des hébergeurs et autres intermédiaires numériques, ce règlement européen sur les services numériques ouvre la voie à une auto-régulation a priori de la part des très grandes plateformes en ligne pour éviter les « risques systémiques ».

Par Anne Cousin, avocate associée, Derriennic Associés

Le règlement sur les services numériques – Digital Services Act (DSA) – du 19 octobre 2022 (1) est applicable à l’ensemble des intermédiaires du numérique depuis février 2024 : fournisseurs d’accès aux contenus, services de cache, moteurs de recherche, hébergeurs, plateformes en ligne. Que faut-il en attendre sur le terrain de la responsabilité de tous ces « fournisseurs de services intermédiaires » en cas de désinformation, cyber harcèlement, diffamation et contenus haineux ? Et ce, « quel que soit leur lieu d’établissement ou leur situation géographique, dans la mesure où ils proposent des services dans l’Union [européenne] ».

Des principes inchangés, parfois chahutés
A l’origine du Web, la question fondamentale fut de distinguer deux acteurs principaux : les éditeurs d’une part, responsables de plein droit des contenus qu’ils créent, et les hébergeurs d’autre part, qui à l’inverse ne doivent, ni même ne peuvent, en répondre. A la veille des années 2000, la bataille en France fut en effet acharnée sur le terrain judiciaire (2) et finalement remportée au Parlement en quelques années – loi « Liberté de communication » et loi « LCEN » (3) – par les tenants de la non-responsabilité des hébergeurs, considérée comme la condition sine qua non du développement des échanges sur Internet. Depuis, le principe a été repris par les lois françaises successives et – bien que la jurisprudence soit parfois hésitante dans son application pratique – la distinction de l’éditeur et de l’hébergeur, et les conséquences qui en découlent, sont fermement maintenue depuis. La régie publicitaire Google Adwords (4), le moteur de recherche Google (5), ou encore la plateforme de partage de vidéos Dailymotion (6) ont ainsi été jugés hébergeurs. Au contraire, ont été considérés comme éditeurs la plateforme Airbnb (7) ou encore le site web de billetterie de manifestations sportives Ticket Bis (8). Le DSA ne revient pas en arrière.

Ce règlement européen sur le marché des services numériques maintient aussi la règle indissociable de la précédente et qui en est le pendant : l’hébergeur à qui est notifié un contenu manifestement illicite doit le supprimer « dans les meilleurs délais ». Le DSA précise qu’un tel retrait doit intervenir « sans examen juridique détaillé » (9). L’illicéité doit donc « sauter aux yeux » de l’hébergeur, ce qui devrait conduire, comme aujourd’hui, à une quasi-absence de suppression des contenus « simplement » diffamatoires ou injurieux, tant leur analyse est complexe et suppose un examen approfondi. Il est en effet exclu que l’hébergeur se prononce sur la vérité du propos diffamatoire (qui écarte l’infraction) ou la bonne foi de son auteur, qui détient les mêmes effets, puisqu’il ne dispose ni du recul ni du dossier nécessaire. Le juge des référés du Tribunal judiciaire de Paris l’a par exemple retenu en ces termes : « Une appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique. Cela a pour conséquence que cet intermédiaire ne peut, par le seul fait de cette diffusion ou du maintien en ligne, être considéré comme ayant eu un comportement fautif, étant précisé en outre que la diffamation, à la supposer constituée, n’égale pas forcément trouble manifestement illicite » (10).
Ce n’est finalement que dans des cas exceptionnels – en raison des thèmes abordés, de la violence particulière du propos considéré – que l’hébergeur pourra trancher en faveur du caractère manifestement diffamatoire ou injurieux du contenu et le supprimer. Le maintien de ce principe par le DSA montre donc que la question de la non-responsabilité des hébergeurs et autres intermédiaires fait aujourd’hui consensus. A ce stade, il pourrait donc être justifié de soutenir que, malgré les déclarations tonitruantes de certains politiques, le DSA ne révolutionnera pas le paysage juridique. Il ne mettra donc pas fin à l’irresponsabilité des plateformes puisque la tâche a déjà été accomplie, et ce, depuis longtemps… Mais cette approche, elle aussi à tort radicale, ne tient pas compte des véritables apports du DSA.

Responsabilité et responsabilisation
En réalité, le règlement sur le marché des services numérique fait le constat que sur le terrain de la « responsabilité » des intermédiaires, c’est-à-dire « après » la diffusion du contenu illicite, tout a été fait : les droits nationaux et le droit de l’Union européenne (UE) ne peuvent aller beaucoup plus loin que la construction légale et jurisprudentielle actuelle. Une définition uniforme dans l’UE de ce qu’il faut entendre par contenu dit « illicite » était peut-être envisageable, tout comme la fixation uniforme de délais de retrait par l’hébergeur en fonction de la gravité du contenu. Mais guère plus. En revanche, sur le terrain cette fois des « obligations » et de la « responsabilisation », beaucoup restait à bâtir. Et c’est ce à quoi s’emploie le DSA. On peut ainsi se demander si la distinction fondamentale de l’éditeur et de l’hébergeur, qui a commandé toute la réflexion depuis l’origine, conserve aujourd’hui effectivement toute sa force.

Nouveaux enjeux, nouvelles obligations
L’idée s’est peu à peu faite jour que les graves dérives actuelles telles que la manipulation de l’information, le cyberharcèlement ou la haine en ligne ne pourraient recevoir une réponse adaptée si le droit persistait à s’en tenir à la seule distinction de l’éditeur qui répond de tout, et de l’hébergeur qui en principe ne répond de rien. Sur ce point, le DSA innove à plusieurs égards, faisant de la modération des contenus, l’élément central du nouveau rôle attribué aux intermédiaires techniques du Web. Il leur impose tout d’abord une obligation renforcée de transparence sur le fonctionnement de la modération a posteriori, laquelle est en effet souvent dénoncée comme opaque et peu compréhensible, conduisant à d’inévitables contentieux. Twitter – devenu X – a ainsi été contraint judiciairement (11), parce qu’il s’y refusait, de fournir des données sur sa procédure de modération (moyens mis en œuvre, nombre de signalements reçus, …). Les conditions générales des hébergeurs doivent désormais détailler les politiques, process, mesures et outils utilisés à cette fin, y compris en ce qui concerne la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Les informations devront être énoncées « dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté » et mises « à la disposition du public dans un format facilement accessible et lisible ».
Les intermédiaires devront aussi établir un rapport annuel détaillant le type de réclamations reçues des particuliers comme des administrations, et les décisions prises pour y donner suite (12). Instagram, Facebook et d’autres très grandes plateformes ont publié leur premier rapport de transparence fin 2023 (13). On y apprend que les Etats membres sont très peu interventionnistes, notamment la France, et que les injonctions de suppression émanant des autorités sont peu nombreuses. Les intermédiaires devront également être plus transparents sur leur système de recommandation, qui, très souvent, permet de favoriser les contenus les plus violents et donc les plus dangereux pour la paix civile.
Mais là où le DSA innove véritablement, c’est à l’égard des « très grandes plateformes » et des « très grands moteurs de recherche » – ceux qui comptabilisent au moins 45 millions d’utilisateurs actifs dans l’UE. Globalement, les obligations qu’il prévoit vont en effet croissant : tous les intermédiaires techniques sont soumis à une série de règles ; ensuite l’ensemble des hébergeurs sont concernés par plusieurs dispositions complémentaires ; puis parmi les hébergeurs, la catégorie particulière des plateformes devra satisfaire à des engagements encore plus contraignants ; et enfin, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne » seront tenus d’obligations plus sévères encore (14). A leur égard, compte tenu de leur rôle primordial dans la diffusion de l’information au sens large, on considère que la modération a posteriori ne suffit plus à traiter efficacement les dérives les plus graves et c’est pourquoi le DSA leur fait désormais obligation d’intervenir également a priori. Ces « VLOP » (Very Large Online Platforms) et ces VLOSE (Very Large Online Search Engines), dont la liste peut évoluer (15), doivent en effet désormais procéder une fois par an à une auto-analyse de leur fonctionnement et se soumettre à un audit indépendant afin d’en identifier les « risques systémiques » – notamment « lorsque l’accès à des contenus illicites peut se propager rapidement ». Ils doivent ensuite, lorsque ces risques systémiques sont identifiés, mettre « en place des mesures d’atténuation raisonnables, proportionnées et efficaces » (16). On peut voir dans cette évolution, une obligation de modération a priori cette fois, mais de portée générale et non dirigée vers un contenu particulier.
La distinction essentielle entre l’éditeur qui produit le contenu et le contrôle, et l’hébergeur qui reste extérieur au contenu et qui intervient seulement une fois l’illicéité portée à sa connaissance, a donc fait long feu. Mais de nouvelles questions surgissent. En effet, l’irresponsabilité des intermédiaires les plus puissants du marché est-elle toujours un principe intangible ? Peuvent-ils désormais se trouver mis en cause si, malgré les audits qui leur sont imposés, ils n’ont pas correctement identifié les risques et ne sont pas intervenus en amont comme ils l’auraient dû pour en atténuer les conséquences ? Une réponse positive à cette question est parfaitement envisageable. Il ne s’agirait plus alors de déterminer seulement s’ils devaient retirer tel ou tel contenu illicite mais, concrètement, si tel ou tel crime – par exemple un acte terroriste – aurait pu être évité s’ils avaient correctement identifié, analysé le risque et pris les mesures nécessaires pour le limiter ou même l’écarter.

Liberté d’expression : qui est l’« arbitre » ?
Au-delà, l’accroissement de la responsabilisation des très grandes plateformes et très grands moteurs de recherche pose aussi directement la question du rôle du juge dans la sanction des abus de la liberté d’expression. Le DSA ne conduit-il pas à faire de chacune des plus puissantes plateformes mondiales « l’arbitre unique » de celle-ci et de ses dérives ? L’évolution contemporaine de X (ex-Twitter) qui se prévaut d’une liberté totale (dont il y aurait beaucoup à dire au demeurant) ne sonne-t-elle pas déjà comme un sinistre avertissement ? Le débat est en tout cas lancé. @

Sur le nombre d’utilisateurs de Telegram, la Commission européenne espère y voir plus clair d’ici octobre

La Commission européenne « doute » que Telegram soit en-dessous des 45 millions d’utilisateurs dans les Vingt-sept. Selon nos informations, les analyses de l’audience de la plateforme cryptée du Franco-Russe Pavel Durov pourraient prendre « au moins un mois » avant de lui appliquer éventuellement le DSA.

« Entre la fin de nos propres analyses que nous sommes en train de mener sur l’audience de Telegram – en distinguant la partie messagerie, qui ne concerne pas le DSA, et la partie groupes ouverts fonctionnant comme un réseau social, relevant du DSA – et le temps qu’il faudra pour s’assurer juridiquement de nos conclusions et de les notifier à l’entreprise Telegram, cela prendra au moins un mois », indique à Edition Multimédi@, Thomas Regnier, porteparole de la Commission européenne. « Nous avons des doutes sur les 41 millions d’utilisateurs en Europe que la plateforme a déclarés en février dernier », ajoute le porte-parole.
Or si la plateforme Telegram atteignait le seuil des 45 millions d’utilisateurs dans les Vingt-sept, elle devrait alors se conformer aux obligations du règlement sur les services numériques, le Digital Services Act (DSA). La Commission européenne a confié à son service Joint Research Center (JRC) le soin d’« étudier la méthodologie de Telegram » (1) dans le calcul du nombre de ses utilisateurs dans l’Union européenne (UE). Bruxelles enquête ainsi discrètement sur Telegram, tandis qu’une procédure judiciaire est en cours en France à l’encontre de son dirigeant fondateur francorusse Pavel Durov (photo), mis en examen le 28 août et placé sous contrôle judiciaire (2).

Telegram, « très grande plateforme en ligne » ?
De son côté, la société Telegram déclare que sa plateforme n’est pas concernée par les obligations du DSA : « Certains éléments non essentiels des services fournis par Telegram peuvent être considérés comme des “plateformes en ligne” dans le cadre du DSA. En août 2024, ces services avaient nettement moins de 45 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours des six mois précédents – ce qui est inférieur au seuil requis pour être désigné comme “très grande plateforme en ligne” » (3).

Telegram indique en outre que les « groupes » d’utilisateurs de sa plateforme, qui en font un véritable réseau social en plus d’être une messagerie cryptée, « comptent jusqu’à 200 000 membres » chacun. Depuis l’entrée en vigueur le DSA le 25 août 2023, sont désignés par la Commission européenne comme « très grande plateforme en ligne », ou VLOP (4), les géants du Net qui totalisent au moins 45 millions d’utilisateurs par mois dans l’UE. Ce seuil est équivalent à 10 % de la population totale des Vingt-sept et doit donc être révisé régulièrement.

« Risques systémiques » et « contenus illicites »
Toute la difficulté pour la Commission européenne est que le calcul restera imprécis, au risque d’être attaquée par Telegram devant la Cour européenne de Justice (CJUE) pour violation du principe de précision consacré par le droit de l’UE. C’est d’ailleurs l’un des arguments du e-commerçant allemand Zalando qui conteste sa désignation comme très grande plateforme en ligne (5). Lorsque Telegram rejoindra le club très fermé de ces plateformes fréquentées mensuellement par au moins 45 millions d’utilisateurs en Europe, la société de Pavel Durov devra alors remplir les obligations renforcées du DSA : évaluer « tout risque systémique », y compris des systèmes algorithmiques, des contenus illicites, ainsi que tout effet négatif sur les droits fondamentaux et la protection de la santé publique et des mineurs. « Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés […], y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence », impose le DSA (6). Telegram pourrait y être soumis dès l’automne prochain, comme le sont déjà Alibaba/AliExpress, Amazon Store, Apple/AppStore, Booking, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Bing et Google Search, XVideos, Zalando, Pornhub et Stripchat.
Curieusement, le commissaire européen Thierry Breton en charge du marché intérieur – plutôt prompt à dénoncer les contenus illicites sur le réseau social X (ex-Twitter), qu’il a pris en grippe au point de mettre mal à l’aise la Commission européenne (7) – ne n’est jamais inquiété publiquement de Telegram. Pourtant la réputation de Telegram en matière de contenus illicites et de cybercriminalité est connue dans le monde entier, et a fortiori dans l’UE et bien avant l’entrée en vigueur du DSA il y a un an : contenus criminels, escroquerie, pédocriminalité, revenge porn, trafic de stupéfiants, blanchiment d’argent en bande organisée, apologie du terrorisme, … Il a fallu qu’en France un juge d’instruction du crime organisé mette en examen le patron de la plateforme controversée – pour « refus de communiquer les informations nécessaires aux interceptions autorisées par la loi [française] » – pour que l’on en vienne à se demande pourquoi la Commission européenne n’avait pas elle-même tiré la sonnette d’alarme. Mis en examen en France, Pavel Durov est considéré pénalement comme « personnellement responsable » et donc « complice » des contenus illicites ou cybercriminels présents sur sa plateforme, accusé de ne pas les avoir interdits par un système de modération ou de suppression. Ce que le patron de Telegram réfute, en s’en expliquant dans un post publié le 5 septembre sur sa plateforme : « Telegram a un représentant officiel dans l’UE [la société belge EDSR, ndlr] qui accepte et répond aux demandes de l’UE. Son adresse e-mail (8) a été publiquement rendue disponible (9) pour toute personne dans l’UE qui google [sic] “Telegram EU address for law enforcement”. Les autorités françaises avaient de nombreuses façons de me contacter pour demander de l’aide » (10). Reste qu’il a décidé de coopérer (11).
Pourquoi la Commission européenne n’aurait-elle pas contacté Telegram via EDSR ? Si c’est parce que le seuil des 45 millions d’utilisateurs européens n’a pas encore été établi pour que Bruxelles intervienne directement au nom du DSA, alors pourquoi en deçà de ce seuil l’Arcom, autorité nationale du numérique, ne s’est-elle pas saisie du cas Telegram ? Depuis que la justice pénale française est montée au créneau en incriminant Pavel Durov, Bruxelles botte en touche : « Il n’y a pas eu de communiqué ni de position officielle des commissaires européenne [Thierry Breton ou Margrethe Vestager, ndlr] car la procédure contre le PDG de Telegram lui-même ne concerne pas le DSA », nous a encore expliqué le porte-parole de la Commission européenne. Pour l’instant.

Ses « amis » Emmanuel Macron et Xavier Niel
Le jeune milliardaire (39 ans), né à Léningrad et cofondateur en 2006 du réseau social russe VKontakte, vit à Dubaï (Emirats arabes unis) où il dispose du passeport de « riche investisseur étranger », et y a installé le siège de Telegram. Avant de franciser son nom en 2022 en « Paul du Rove », il a été naturalisé français par décret du 23 août 2021 (12) après avoir eu des rendez-vous avec le président Emmanuel Macron (13). Celui-ci a d’ailleurs tenu à assurer sur X le 26 août que « l’arrestation du président de Telegram sur le territoire français […] n’est en rien une décision politique […] » (14). Tandis que l’AFP indiquait le 29 août que, le soir de son interpellation (le 24 août), Pavel Durov a fait prévenir Xavier Niel de son placement en garde à vue. Sans accord avec la France, il menace de la « quitter ». @

Charles de Laubier

En prenant X en grippe, Thierry Breton crée un malaise au sein de la Commission européenne

Dix mois après sa première lettre du 10 octobre 2023 à Elon Musk pour lui rappeler les obligations de X (ex-Twitter) au regard du Digital Services Act (DSA), Thierry Breton lui a envoyé une seconde lettre le 12 août 2024. A force d’insister, le commissaire européen créé un malaise à Bruxelles.

Thierry Breton (photo) outrepasse-t-il ses fonctions de commissaire européen en charge du Marché intérieur ? C’est à se demander, tant le Français – que le président de la République française Emmanuel Macron souhaite voir reconduit dans ses fonctions pour le prochain mandat de la Commission européenne – se distingue en prenant parfois des initiatives sans se concerter avec ses collègues à Bruxelles. Il en va ainsi avec le second courrier en dix mois adressé le 12 août 2024 à Elon Musk pour rappeler à ce dernier les obligations du réseau social X (ex- Twitter) en Europe.

Thierry Breton désavoué face à Elon Musk
« Le timing et la formulation de la lettre n’ont été ni coordonnés ni convenus avec la présidente [Ursula von der Leyen] ou le collège [des commissaires européens] », a déclaré Arianna Podestà, porte-parole en cheffe-adjointe de la Commission européenne, selon sa déclaration faite au journal Le Monde. Et d’assurer : « La lettre [de Thierry Breton] ne voulait en aucun cas interférer avec les élections américaines. L’UE n’interfère pas dans des élections » (1). Pourtant, le courrier à Elon Musk daté du 12 août et signé par le commissaire européen au Marché intérieur fait explicitement référence à « la diffusion prévue sur votre plateforme X [en s’adressant à Elon Musk, ndlr] d’une conversation en direct entre un candidat à la présidence américaine et vous-même, qui sera également accessible aux utilisateurs de l’UE ».
Et Thierry Breton d’enfoncer le clou en mettant en garde le propriétaire de la plateforme X : « Nous surveillons les risques potentiels dans l’UE associés à la diffusion de contenu pouvant inciter à la violence, à la haine et au racisme en lien avec un événement politique – ou sociétal – majeur à travers le monde, y compris des débats et des interviews dans le contexte d’élections [en l’occurrence ici des élections américaines, ndlr] ». Dans cette lettre que la présidente de la Commission européenne ne cautionne pas, il est fait ainsi clairement référence à l’interview, prévu le lendemain, que Elon Musk fera lui-même de Donald Trump, candidat Républicain à l’élection présidentielle. L’« interférence » du commissaire européen Thierry Breton aurait pu être considérée comme de l’ingérence de la Commission européenne dans les affaires intérieures des Etats-Unis s’il n’y avait pas eu la mise au point de la porte-parole en cheffe-adjointe de l’exécutif européen. Désavoué par les services de la présidente Ursula von der Leyen, laquelle a été réélue le 18 juillet dernier par les eurodéputés pour un nouveau mandat, Thierry Breton a aussi reçu une réplique cinglante de la part du propriétaire de X.

« Pour être honnête, j’avais vraiment envie de répondre avec ce mème de Tonnerre sous les tropiques, mais je ne ferais JAMAIS quelque chose d’aussi grossier et irresponsable ! », a lancé ironique Elon Musk en illustrant son propos d’un mème où l’on peut lire une réplique insultante tirée du film américain en question : « Faites un grand pas en arrière. Et littéralement, [enculez] votre propre visage ! » (2). Alors que le premier degré prenait rapidement dans les médias le pas sur le second degré, il n’en reste pas moins que ni Ursula von der Leyen ni aucun autre membre du collège de la Commission européenne n’a volé au secours du Français, ni pour s’insurger contre Elon Musk ni défendre la lettre du commissaire européen au Marché intérieur.
Ce courrier du 12 août 2024 – que Edition Multimédi@ republie ici en ligne (3) – rappelle au milliardaire, patron de X, de Tesla et de SpaceX, que « des procédures formelles sont déjà en cours contre X au titre du DSA [Digital Services Act], notamment dans des domaines liés à la diffusion de contenus illicites et à l’efficacité des mesures prises pour lutter contre la désinformation ». Le réseau social X a été la première très grande plateforme en ligne (4) dans l’Union européenne à faire l’objet de l’ouverture, le 18 décembre 2023, d’une « enquête formelle » car soupçonnée d’« enfrein [dre] le règlement sur les services numériques [le DSA] dans des domaines liés à la gestion des risques, à la modération des contenus, aux interfaces trompeuses, à la transparence de la publicité et à l’accès des chercheurs aux données » (5).

X contestera Bruxelles devant la justice
Le réseau de tweets X, qui compte dans le monde plus de 300 millions d’utilisateurs, dont un tiers dans l’Union européenne, est tenu depuis un an maintenant – depuis le 25 août 2023 – de respecter ses obligations envers le DSA. Si l’enquête se poursuit sur le volet concernant la diffusion de contenus illicites et l’efficacité des mesures prises pour lutter contre la manipulation de l’information, la partie concernant les interfaces trompeuses, la transparence de la publicité et l’accès des chercheurs aux données a fait l’objet le 12 juillet 2024 d’un « avis préliminaire selon lequel la plateforme enfreint le DSA » (6). Thierry Breton avait alors brandi la menace d’une sanction financière pouvant aller jusqu’à 6 % de son chiffre d’affaires mondial annuel, avec la contrainte de prendre des mesures pour remédier aux infractions constatées. « X va maintenant pouvoir se défendre, mais si notre avis est confirmé, nous lui imposerons des amendes et exigerons des changements importants », avait prévenu le Français. Elon Musk avait répondu le jour même, décidé à porter l’affaire devant la justice : « Nous attendons avec impatience une bataille très publique devant les tribunaux, afin que les citoyens européens puissent connaître la vérité » (7).

X accusé d’enfreindre le DSA et le RGPD
Par ailleurs, cette fois par la « Cnil » irlandaise (DPC) pour le compte de l’Union européenne, X est accusé d’avoir utilisé illégalement les données personnelles de plus de 60 millions d’utilisateurs européens – sans leur consentement – pour former son IA générative Grok. Annoncé le 8 août 2024 par la Data Protection Commission (DPC), un accord a été trouvé avec X qui a suspendu le traitement de ces données le temps d’examiner la conformité avec le RGPD, le règlement européen sur la protection des données (8). Autant dire que l’ex-Twitter est plus que jamais dans le collimateur de l’Union européenne en général et de Thierry Breton en particulier. D’autant que le commissaire au Marché intérieur s’était, dix mois plus tôt, déjà adressé directement à Elon Musk (photo ci-dessus) dans une lettre datée, elle, du 10 octobre 2023 – que Edition Multimédi@ republie aussi ici en ligne (9).
« Suite aux attaques terroristes menées [le 7 octobre 2023, ndlr] par le Hamas contre Israël, nous avons des indications selon lesquelles votre plateforme est utilisée pour diffuser du contenu illégal et de la désinformation dans l’UE. Je vous rappelle que la loi sur les services numériques établit des obligations très précises en matière de modération des contenus », lui avait écrit Thierry Breton, soit deux jours avant la « demande d’informations à X » formulée par la Commission européenne (10) et un peu plus de deux mois avant que la Commission européenne ne lance, le 18 décembre 2023, sa première enquête formelle à l’encontre de X soupçonné d’enfreindre le DSA.
Dans cette première lettre, le commissaire européen évoque du « contenu violent et terroriste qui semble circuler sur [la] plateforme » qui ne devait pas être autorisé. Et de réprimander le patron de X : « Lorsque vous recevez des notifications de contenu illégal dans l’UE, vous devez agir rapidement, avec diligence et objectivité et supprimer le contenu concerné lorsque cela est justifié. Nous avons reçu, de sources qualifiées, des rapports sur des contenus potentiellement illégaux circulant sur votre service malgré les signalements des autorités compétentes. […] Vous devez mettre en place des mesures d’atténuation proportionnées et efficaces pour faire face aux risques pour la sécurité publique et le discours civique découlant de la désinformation. Les médias publics et les organisations de la société civile signalent largement des cas d’images et de faits faux et manipulés circulant sur votre plateforme dans l’UE, tels que des images anciennes réutilisées de conflits armés sans rapport ou des séquences militaires provenant en réalité de jeux vidéo. Il s’agit d’informations manifestement fausses ou trompeuses ». Le bras de fer entre Musk et Breton est loin d’être terminé. Le milliardaire défend coûte que coûte la liberté d’expression, tandis que le commissaire fait la chasse aux contenus illégaux que le premier considère comme de la censure.
C’est d’ailleurs ce que Elon Musk vient de reprocher au Brésil où il a annoncé le 17 août sa décision de fermer ses bureaux dans ce pays, tout en y laissant accessible X. « La décision de fermer le bureau de X au Brésil a été difficile, mais si nous avions accepté la censure secrète (illégale) et les demandes de remise d’informations privées de @alexandre [le juge brésilien Alexandre de Moraes, ndlr], nous n’aurions pu expliquer nos actions sans avoir honte », a justifié Elon Musk (11). Thierry Breton poussera-t-il X à fermer aussi ses bureaux européens à Dublin, en Irlande ? Le 19 octobre 2023, le média américain Business Insider avait rapporté que Elon Musk menaçait de fermer X en Europe (12).

Contenus illicites versus liberté d’expression
Le 10 juillet 2023, sur Franceinfo, le commissaire européen s’était quelque peu emballé en menaçant d’« interdire l’exploitation sur notre territoire » les plateformes numériques comme l’ex-Twitter qui ne respecteraient pas leurs obligations vis-à-vis du DSA (13). Ses propos ayant soulevé une vague d’inquiétudes sur les risques de censures, il a dû revenir à nouveau sur Franceinfo le 25 août 2023 pour tenter de rassurer : « C’est la garantie de nos libertés, c’est tout sauf le ministère de la censure » (14). Après sa première lettre du 10 octobre, une trentaine d’ONG (15) avaient d’ailleurs réagi en se disant « préoccupé[e]s par l’interprétation » que fait Thierry Breton du DSA, avec « un risque important pour les droits de la personne et le discours public », liberté d’expression comprise. @

Charles de Laubier

Telegram est coincé entre la France et la Belgique

En fait. Le 28 août, Pavel Dourov, le patron fondateur de la messagerie-réseau social Telegram a été mis en examen et placé sous contrôle judiciaire avec interdiction de quitter le territoire français. Il est accusé au pénal de « complicité » pour les contenus criminels véhiculés sur sa plateforme mondiale.

En clair. « L’arrestation du président de Telegram sur le territoire français a eu lieu dans le cadre d’une enquête judiciaire en cours. Ce n’est en rien une décision politique. Il revient aux juges de statuer », a tenu à justifier Emmanuel Macron, président de la République, sur X le 26 août (1). Le Franco-Russe Pavel Durov, président fondateur de la messagerie cryptée Telegram – également réseau social aux près de 1 milliard d’utilisateurs dans le monde – a d’ailleurs été naturalisé français par décret du 23 août 2021 (2) – avec l’aval de l’Elysée.
Pourtant, le jeune milliardaire (39 ans), né à Léningrad, vit à Dubaï (Emirats arabes unis) où il dispose du passeport de « riche investisseur étranger », et y a installé le siège de Telegram (3). Paul du Rove – après francisation en 2022 – n’aurait jamais imaginé être, trois ans plus tard, cueilli au Bourget par la police française aux frontières et déféré devant un juge d’instruction du crime organisé pour être mis en examen le 28 août. Son arrestation a pu se faire en raison d’un « mandat de recherche » qui avait déjà été émis contre lui par un service d’enquête de la police nationale chargé de lutter contre les infractions criminelles. La justice française l’accuse de ne pas supprimer sur Telegram des contenus pédocriminels et d’autres illicites (trafic de stupéfiants, blanchiment d’argent, pratique de la violence, apologie du terrorisme, …), ni de suspendre des comptes. C’est donc une procédure au pénal en France, ce qui n’est pas du ressort du Digital Services Act (DSA). Pavel Durov (4) est réputé libertarien, défendeur à tout prix de la liberté individuelle contre toute censure ou restriction. Pénalement, il est considéré comme « complice » des contenus criminels circulant sur sa messagerie cryptée.

Mais pourquoi la Commission européenne n’a pas, elle, déclenché une enquête à l’encontre de Telegram au nom du DSA ? Réponse de l’entreprise elle-même (5), représentée en Europe par la société belge EDSR (6) : « En août 2024, les services [de Telegram] avaient nettement moins de 45 millions de bénéficiaires actifs mensuels moyens dans l’UE au cours des six mois précédents – [41 millions en février 2024, ndlr] ce qui est inférieur au seuil requis pour être désigné comme “très grande plateforme en ligne” ». En cas de franchissement, c’est l’« Arcep » belge – l’IBPT – qui devrait superviser Telegram pour l’UE. @

DMA, DSA et futur DNA : la Commission européenne instaure un climat de défiance envers les Gafam

Le 7 mars 2024, le Digital Markets Act (DMA) est devenu obligatoire pour six gatekeepers. Le 25 mars, la Commission européenne a ouvert des enquêtes pour « non-conformité » contre Alphabet (Google), Apple, Meta et Amazon. La CCIA, lobby des Gafam, dénonce cette précipitation.

« Le lancement des premières enquêtes préliminaires en vertu du règlement européen sur les marchés numériques (DMA), quelques jours seulement après la date limite de conformité, met un frein à l’idée que les entreprises et la Commission européenne travaillent ensemble pour mettre en œuvre le DMA avec succès », a regretté Daniel Friedlaender (photo), vice-président et responsable de la CCIA Europe, le bureau à Bruxelles de l’association américaine de l’industrie de l’informatique et des communications. La Computer & Communications Industry Association (CCIA), basée à Washington, représente notamment les Gafam.

Politique coercitive plutôt que coopérative
Dix-huit jours seulement après l’entrée en vigueur dans les Vingt-sept du Digital Markets Act (1), la Commission européenne a dégainé le 25 mars des « enquêtes pour non-conformité » à l’encontre de trois des six contrôleurs d’accès soumis à des obligations renforcées : Google (Alphabet), Apple et Meta. « Ces enquêtes portent sur les règles d’Alphabet relatives à l’orientation dans Google Play et à ses pratiques d’auto-favoritisme dans Google Search, les règles d’Apple relatives à l’orientation dans l’App Store et à l’écran de sélection pour Safari, ainsi que sur le modèle “Pay or Consent” de Meta », a-t-elle précisé (2).
Parallèlement, sont lancées des investigations sur : d’une part Amazon – faisant partie lui-aussi des six gatekeepers – soupçonné de privilégier ses propres produits de marque sur Amazon Store ; d’autre part Apple encore et sa nouvelle structure tarifaire et autres modalités et conditions applicables aux boutiques d’applications alternatives, y compris la distribution d’applications à partir du Web. Pour le lobby américain des Gafam, cette précipitation coercitive de Bruxelles est inquiétante : « Le calendrier de ces annonces, alors que les ateliers de conformité DMA sont toujours en cours, donne l’impression que la Commission européenne pourrait passer outre. Mises à part les issues possibles, cette décision risque de confirmer les craintes de l’industrie que le processus de conformité DMA finisse par être politisé ». Au lieu de poursuivre la coopération et de prendre le temps d’évaluer les solutions de conformité de chaque entreprise et les changements de grande envergure apportés à leurs services, la CCIA Europe estime que ces enquêtes pour non-conformité lancée aussitôt « pourraient miner le processus », et cela « envoie un signal inquiétant que l’UE pourrait se précipiter dans des enquêtes sans savoir ce qu’elle enquête ». D’autant que les récents ateliers de travail organisés au sein de la Commission européenne ont mis en évidence de nombreux domaines d’incertitude liés à la mise en œuvre du DMA. Par exemple, « de nombreux risques et possibilités sont encore à l’étude, de sorte que le lancement d’enquêtes semble prématuré ». Et Daniel Friedlaender de fustiger : « Au lieu de recourir à des mesures punitives, nous espérons que ces enquêtes seront une autre occasion pour les entreprises qui s’engagent à se conformer au DMA d’avoir un dialogue ouvert avec la Commission européenne, en travaillant ensemble pour atteindre des marchés numériques équitables et concurrentiels. C’est le genre d’environnement collaboratif que le DMA devrait favoriser ».

ByteDance (TikTok) et Microsoft sont les deux autres contrôleurs d’accès, sur les six désignés le 6 septembre 2023 par la Commission européenne (3). TikTok est lui aussi dans le collimateur de Bruxelles, non pas dans le cadre du DMA mais au titre du DSA (Digital Services Act), pour lequel ont été désignés cette fois 22 « très grandes plateformes » (dont TikTok) : une « procédure formelle » a été annoncée à son encontre le 19 février dernier (4). Thierry Breton, commissaire européen au marché intérieur, est réputé être particulièrement remonté contre les Gafam, à commencer par X (ex-Twitter) qui a été le premier à faire l’objet de l’ouverture, le 18 décembre 2023, d’une « enquête formelle » car soupçonné d’avoir enfreint le DSA (5).

En attendant le Digital Networks Act (DNA)
La CCIA Europe est par ailleurs vent debout contre le projet de Digital Networks Act (DNA) porté par Thierry Breton qui veut taxer les Gafam au profit des opérateurs télécoms dont ils utilisent les réseaux (6). Ce projet de « mécanisme de paiement obligatoire » (network fees) est contesté par au moins huit organisations représentatives en Europe des acteurs de l’Internet – dont la CCIA Europe, l’Asic en France ou encore Dot Europe – qui ont cosigné le 20 octobre 2023 une déclaration commune (7) pour s’y opposer. Les géants du Net se retrouvent pris en étaux entre le DMA/DSA et le futur DNA – Thierry Breton ayant dit à Paris le 1er mars (8), devant l’Association des journalistes économiques et financiers (Ajef), vouloir que ce dernier « soit incontournable pour le prochain mandat [de la Commission européenne] ». @

Charles de Laubier