Le jeu d’univers virtuels Roblox passe sous le DSA

En fait. Le 4 mars, un porte-parole de la Commission européenne a indiqué que cette dernière « analysait » le nombre de 48 millions d’utilisateurs mensuels déclaré à fin février 2026 par la société américaine de jeux immersifs en ligne Roblox – dépassant le seuil des 45 millions pour être désignée VLOP.

En clair. Ce serait une première dans le jeu vidéo. Roblox pourrait être le premier jeu vidéo en ligne à être désigné « très grande plateforme », ou VLOP (Very Large Online Platforms) dans le jargon bruxellois (1), dans le cadre du règlement sur les services numériques – le Digital Services Act (DSA). Un porteparole de la Commission européenne a indiqué à Euractiv le 4 mars qu’elle était « consciente » que Roblox avait déclaré fin février 2026 une fréquentation mensuelle dans les Vingt-sept supérieure au seuil prévu par le DSA et qu’elle « analysait actuellement les chiffres [et les] prochaines étapes » (2). Sur une page web dédiée à ses obligations vis-à-vis du DSA, la filiale néerlandaise de Roblox – dont le siège européen est installé au Pays-Bas, à Amsterdam – indique que « le nombre moyen estimé de bénéficiaires actifs mensuels de Roblox dans l’UE, basé sur la période de 6 mois se terminant le 13 février 2026, est de 48 millions » (3).
L’américain Roblox Corporation, éditeur de l’univers virtuel en ligne créé il y a 20 ans cette année, devrait ainsi rejoindre les vingt-deux VLOP – AliExpress, Amazon, Aylo Freesites, Booking, Infinite, LinkedIn, Meta, NKL, Pinterest, Snap, Technius, TikTok, Twitter (X), Whaleco, WebGroup Czech Republic, WhatsApp, Wikipedia et Zalando (auxquels s’ajoutent les très grands moteurs de recherche de Google et Microsoft). Le DSA les oblige tous à faire preuve de (suite) « transparence », à lutter a priori contre les « contenus illicites », à identifier les « risques systémiques », à mettre en place des « mesures d’atténuation raisonnables, proportionnées et efficaces » et à protéger les mineurs. Et ce, sous peine de sanction pécuniaire pouvant aller jusqu’à 6 % du chiffre d’affaires mondial.
Le 5 février dernier, Roblox a fait état d’un chiffre d’affaires global de 4,9 milliards de dollars, en hausse de 35,7 % sur un an, pour une perte nette dépassant 1 milliard de dollars. Pour l’heure, Roblox fait l’objet d’une enquête ouverte en janvier 2026 par le gendarme néerlandais de la concurrence et de la consommation, l’ACM, compétente pour l’UE au regard du siège européen de Roblox aux Pays-Bas. Elle porte sur les mesures prises par la plateforme concernant la protection des mineurs (4), tant sur la violence des jeux et les incitations (dark patterns) à dépenser de l’argent en ligne. Robux est la monnaie virtuelle de Roblox. @

Ce que l’Europe a répondu aux Etats-Unis suite au bannissement de cinq personnalités du numérique

Depuis que l’administration « Trump II » a interdit de visa cinq personnalités européennes jugées responsables ou complices de la régulation numérique dans les Vingt-sept, soi-disant au détriment des Gafam américains, l’Europe s’insurge et demande des explications. Bras de fer transatlantique.

« Le département d’Etat [américain] prend des mesures décisives contre cinq individus qui ont mené des efforts organisés pour contraindre les plateformes américaines à censurer, démonétiser et réprimer les points de vue américains auxquels elles s’opposent. Ces militants radicaux et ces ONG militarisées ont favorisé la répression de la censure par des Etats étrangers — dans chaque cas ciblant les orateurs américains et les entreprises américaines », avait lancé sans retenue Marco Rubio (photo), le secrétaire d’Etat américain à Washington (1), le 23 décembre 2025.

Le ministre Roland Lescure au créneau
Le Département d’Etat s’est aussi dit « prêt et disposé à élargir la liste actuelle », qui, pour l’heure comprend cinq personnalités européennes que sont (par ordre alphabétique) : le Britannique Imran Ahmed (fondateur et directeur général du Center for Countering Digital Hate), l’Allemande Josephine Ballon (directrice juridique de HateAid), le Français Thierry Breton (ancien commissaire européen à la Commission européenne), la Britannique Clare Melford (cofondatrice et directrice générale du Global Disinformation Index), l’Allemande Anna-Lena von Hodenberg (fondatrice et directrice générale de l’organisation HateAid).
Ainsi, parmi ces « militants radicaux et ces ONG militarisées » (dixit l’administration Trump II), celui qui suscite le plus de réaction est Thierry Breton, ancien commissaire européen au Marché intérieur de 2019 jusqu’à sa démission en 2024. Le dimanche 4 janvier, Roland Lescure, ministre de l’Economie, des Finances et de la Souveraineté industrielle, énergétique et numérique, a annoncé sur Franceinfo qu’« [il se] rendr[a] aux Etats-Unis, dans quelques jours [pour] rencontrer [son] alter ego, Scott Bessent [secrétaire au Trésor des Etats-Unis, ndlr] », en précisant : « Et je vais lui parler de ça. […] Je vais évidemment lui demander des explications sur cette mesure que je regrette, mais lui rappeler aussi que ce qu’on a adopté en Europe, eh bien oui, c’est différent de la manière dont les Etats-Unis voient la soi-disant liberté d’expression qui conduit à raconter n’importe quoi ». Dans la Commission « von der Leyen II », Thierry Breton fut un des artisans de (suite) la règlementation sur les services numériques – le Digital Services Act (DSA) critiqué par les Etats-Unis – ainsi que de la règlementation sur les marchés numériques – le Digital Markets Act (DMA) également dans le collimateur américain. « Notre première réaction face à ces événements, avait ajouté Roland Lescure sur Franceinfo, c’est qu’on ne reculera pas et qu’on continuera à appliquer une réglementation européenne qui est conforme aux valeurs européennes et qui, oui, contrevient à un certain nombre de convictions américaines aujourd’hui ». Le DSA est particulièrement contraignant pour les grandes plateformes numériques du monde entier, dès lors que ces « VLOP » (Very Large Online Platforms) et « VLOSE » (Very Large Online Search Engines), soit à ce jour une vingtaine de services en ligne (2), ont l’obligation de lutter a priori contre les contenus illicites. C’est sur ce fondement que le réseau social X (ex-Twitter) s’est vu infliger par la Commission européenne la toute première amende « DSA », de 120 millions d’euros, annoncée le 5 décembre 2025 pour « violation de ses obligations de transparence » (conception trompeuse de son “badge bleu de vérification”, manque de transparence de son dépôt publicitaire et refus d’accès aux données publiques pour les chercheurs).
« La DSA rétablit la confiance dans l’environnement en ligne », avait déclaré Henna Virkkunen, vice-présidente de la Commission européenne pour la souveraineté technologique, la sécurité et la démocratie. Cette première sanction financière prise au nom de DSA (3) aurait été, pour l’administration « Trump II », la goutte qui aurait fait déborder le vase. Selon Roland Lescure, les Etats-Unis auraient pris les mesures de « Visa ban » à l’encontre de cinq personnalités européennes, « c’est parce qu’on a fait des choses qui leur déplaisent ; on a frappé juste ».

La Commission européenne condamne
Quant à la Commission européenne, dans une déclaration publiée le 24 décembre 2025, elle a « condamn[é] fermement la décision américaine d’imposer des restrictions de voyage à cinq personnes européennes, dont l’ancien commissaire européen Thierry Breton », et elle a « demandé des clarifications aux autorités américaines ». Le ton reste très diplomatique, avec une mise en garde de circonstance : « Si nécessaire, nous réagirons rapidement et de manière décisive pour défendre notre autonomie réglementaire contre des mesures injustifiées ». Ce statement (4) n’est pas signé, ni par la présidente de la Commission européenne Ursula von der Leyen ni par la vice-présidente Henna Virkkunen. Il réfute l’idée trumpienne que le DSA porte atteinte à la liberté d’expression par la censure, laquelle est au contraire « un droit fondamental en Europe et une valeur fondamentale partagée avec les Etats-Unis à travers le monde démocratique ». Et de défendre les DSA, DMA et autres RGPD : « Nos règles numériques garantissent un terrain de jeu sûr, équitable et équitable pour toutes les entreprises, appliquées de manière équitable et sans discrimination ». Et Henna Virkkunen d’abonder dans le sens de la légitimité de ces règles : « Notre législation numérique a été décidée démocratiquement par le Parlement européen et nos Etats membres » (5).

Des règles transposées par les Vingt-sept
En France, la ministre déléguée à l’Intelligence artificielle et au Numérique, Anne Le Henanff, intervenait la veille de Noël sur Franceinfo pour bien préciser que « la réponse qui sera apportée, s’il y en a une – elle n’est pas de mon niveau – sera collective et européenne », tout en défendant elle aussi le DSA et en rappelant le soutien du gouvernement français à Thierry Breton (photo ci-contre), qui se voient – comme les quatre autres ressortissants européens – interdit de séjour sur le sol américain. « Le DSA a été démocratiquement composé, puisque les 27 membres ont choisi de l’appliquer dans chacun de leur pays et au niveau européen, a-t-elle rappelé. C’est un règlement qui est décidé par les Européens pour les Européens. C’est un texte que nous avons collectivement souhaité pour nous protéger des dérives et des risques que nous rencontrons parfois sur les grandes plateformes ou les moteurs de recherche, quelle que soit leur origine. On décide que chaque Etat, chaque entité, chaque entreprise qui décide de venir s’implanter sur le territoire européen, respecte nos règles » (6).
La veille, soit dès le 23 décembre 2025, le ministre de l’Europe et des Affaires étrangères, Jean-Noël Barrot, avait posté sur X une déclaration prenant fait et cause pour le Français et les quatre autres : « La France dénonce avec la plus grande fermeté la restriction de visa prise par les Etats-Unis à l’encontre de Thierry Breton, ancien ministre et Commissaire européen, et quatre autres personnalités européennes ». Et le chef de la diplomatie française de mettre les points sur les « i » en faveur de l’Union européenne : « Le DSA a été démocratiquement adopté en Europe pour que ce qui est illégal hors ligne le soit aussi en ligne. Il n’a absolument aucune portée extraterritoriale et ne concerne en aucun cas les Etats-Unis. Les peuples de l’Europe sont libres et souverains et ne sauraient se faire imposer par d’autres les règles s’appliquant à leur espace numérique » (7). Thierry Breton, lui, a réagi à son bannissement des Etats-Unis en dénonçant le 24 décembre sur X « un vent de maccarthysme », et en rappelant que « 90 % du Parlement européen — démocratiquement élu — et les 27 Etats membres à l’unanimité ont voté le DSA » (8). Le Parlement européen a adopté le DSA par 539 voix (54 contre et 30 abstentions), et le DMA par 588 voix (11 contre et 31 abstentions). Quant à la présidente de la Commission européenne, Ursula von der Leyen, elle a été « roulée dans la farine » par un Donald Trump sans scrupules ni limites. L’Allemande avait été tout sourire avec Donald Trump lors de l’annonce, à Bruxelles le 27 juillet 2025, de l’accord conclu sur les droits de douane – l’« accord 15 % ». Mais une fois scellé le 21 août suivant, cet accord commercial transatlantique avait été aussitôt suivi – fin août (9) – par des attaques en règle lancées par Donald Trump lui-même contre l’Union européenne et ses taxes sur les services numérique (TSN), son DSA et son DMA.
Même le président de la Federal Trade Commission (FTC), Andrew Ferguson, avait écrit une lettre à treize patrons de Big Tech américaines – dont Apple, Google, Meta, Microsoft, Amazon, X, Signal ou encore Slack – pour dire tout le mal qu’il pensait du DSA qui, selon lui, « incite les entreprises technologiques à censurer le discours, y compris le discours en dehors de l’Europe » (10). La FTC s’est appuyé sur un rapport à charge publié le 25 juillet 2025 par les républicains de la commission judiciaire, présidée par le trumpiste Jim Jordan, à la Chambre des représentants. Son titre : « La menace de la censure étrangère : comment la loi sur les services numériques de l’Union européenne impose une censure mondiale et enfreint la liberté d’expression américaine » (11). En fin d’année 2025, le locataire de la Maison-Blanche, qui adore se faire appeler « président de l’Europe » par… certains dirigeants européens, avait fait préparer le bras de fer par son secrétaire d’Etat au Commerce Howard Lutnick, venu à Bruxelles le 24 novembre 2025 – épaulé par le représentant commercial des Etats-Unis Jamieson Greer – pour mettre à nouveau en cause la législation numérique européenne. Avec un chantage à la clé, sur l’acier et l’aluminium (12).

Plainte contre l’administration Trump
Ces attaques personnelles font suite à plusieurs offensives antérieures de l’administration « Trump II » à l’encontre du cadre législatif européen pour les services et les marchés numériques. Le secrétaire d’Etat américain Marco Rubio avait lancé les hostilités en demandant – par écrit le 4 août 2025 – aux diplomates américains en Europe de lancer une campagne de lobbying contre le DSA (13). Le Britannique Imran Ahmed (Center for Countering Digital Hate), qui vit aux Etats-Unis et sous la menace d’une expulsion, a déposé plainte le 24 décembre 2025 contre l’administration Trump. Le tribunal de New York lui a accordé une injonction temporaire empêchant son expulsion le temps de l’examen de sa plainte. @

Charles de Laubier

Responsabilités sur le Web : ce qui change vraiment avec le règlement sur les services numériques

Même si le DSA a maintenu la « non-responsabilité » des hébergeurs et autres intermédiaires numériques, ce règlement européen sur les services numériques ouvre la voie à une auto-régulation a priori de la part des très grandes plateformes en ligne pour éviter les « risques systémiques ».

Par Anne Cousin, avocate associée, Derriennic Associés

Le règlement sur les services numériques – Digital Services Act (DSA) – du 19 octobre 2022 (1) est applicable à l’ensemble des intermédiaires du numérique depuis février 2024 : fournisseurs d’accès aux contenus, services de cache, moteurs de recherche, hébergeurs, plateformes en ligne. Que faut-il en attendre sur le terrain de la responsabilité de tous ces « fournisseurs de services intermédiaires » en cas de désinformation, cyber harcèlement, diffamation et contenus haineux ? Et ce, « quel que soit leur lieu d’établissement ou leur situation géographique, dans la mesure où ils proposent des services dans l’Union [européenne] ».

Des principes inchangés, parfois chahutés
A l’origine du Web, la question fondamentale fut de distinguer deux acteurs principaux : les éditeurs d’une part, responsables de plein droit des contenus qu’ils créent, et les hébergeurs d’autre part, qui à l’inverse ne doivent, ni même ne peuvent, en répondre. A la veille des années 2000, la bataille en France fut en effet acharnée sur le terrain judiciaire (2) et finalement remportée au Parlement en quelques années – loi « Liberté de communication » et loi « LCEN » (3) – par les tenants de la non-responsabilité des hébergeurs, considérée comme la condition sine qua non du développement des échanges sur Internet. Depuis, le principe a été repris par les lois françaises successives et – bien que la jurisprudence soit parfois hésitante dans son application pratique – la distinction de l’éditeur et de l’hébergeur, et les conséquences qui en découlent, sont fermement maintenue depuis. La régie publicitaire Google Adwords (4), le moteur de recherche Google (5), ou encore la plateforme de partage de vidéos Dailymotion (6) ont ainsi été jugés hébergeurs. Au contraire, ont été considérés comme éditeurs la plateforme Airbnb (7) ou encore le site web de billetterie de manifestations sportives Ticket Bis (8). Le DSA ne revient pas en arrière.

Ce règlement européen sur le marché des services numériques maintient aussi la règle indissociable de la précédente et qui en est le pendant : l’hébergeur à qui est notifié un contenu manifestement illicite doit le supprimer « dans les meilleurs délais ». Le DSA précise qu’un tel retrait doit intervenir « sans examen juridique détaillé » (9). L’illicéité doit donc « sauter aux yeux » de l’hébergeur, ce qui devrait conduire, comme aujourd’hui, à une quasi-absence de suppression des contenus « simplement » diffamatoires ou injurieux, tant leur analyse est complexe et suppose un examen approfondi. Il est en effet exclu que l’hébergeur se prononce sur la vérité du propos diffamatoire (qui écarte l’infraction) ou la bonne foi de son auteur, qui détient les mêmes effets, puisqu’il ne dispose ni du recul ni du dossier nécessaire. Le juge des référés du Tribunal judiciaire de Paris l’a par exemple retenu en ces termes : « Une appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique. Cela a pour conséquence que cet intermédiaire ne peut, par le seul fait de cette diffusion ou du maintien en ligne, être considéré comme ayant eu un comportement fautif, étant précisé en outre que la diffamation, à la supposer constituée, n’égale pas forcément trouble manifestement illicite » (10).
Ce n’est finalement que dans des cas exceptionnels – en raison des thèmes abordés, de la violence particulière du propos considéré – que l’hébergeur pourra trancher en faveur du caractère manifestement diffamatoire ou injurieux du contenu et le supprimer. Le maintien de ce principe par le DSA montre donc que la question de la non-responsabilité des hébergeurs et autres intermédiaires fait aujourd’hui consensus. A ce stade, il pourrait donc être justifié de soutenir que, malgré les déclarations tonitruantes de certains politiques, le DSA ne révolutionnera pas le paysage juridique. Il ne mettra donc pas fin à l’irresponsabilité des plateformes puisque la tâche a déjà été accomplie, et ce, depuis longtemps… Mais cette approche, elle aussi à tort radicale, ne tient pas compte des véritables apports du DSA.

Responsabilité et responsabilisation
En réalité, le règlement sur le marché des services numérique fait le constat que sur le terrain de la « responsabilité » des intermédiaires, c’est-à-dire « après » la diffusion du contenu illicite, tout a été fait : les droits nationaux et le droit de l’Union européenne (UE) ne peuvent aller beaucoup plus loin que la construction légale et jurisprudentielle actuelle. Une définition uniforme dans l’UE de ce qu’il faut entendre par contenu dit « illicite » était peut-être envisageable, tout comme la fixation uniforme de délais de retrait par l’hébergeur en fonction de la gravité du contenu. Mais guère plus. En revanche, sur le terrain cette fois des « obligations » et de la « responsabilisation », beaucoup restait à bâtir. Et c’est ce à quoi s’emploie le DSA. On peut ainsi se demander si la distinction fondamentale de l’éditeur et de l’hébergeur, qui a commandé toute la réflexion depuis l’origine, conserve aujourd’hui effectivement toute sa force.

Nouveaux enjeux, nouvelles obligations
L’idée s’est peu à peu faite jour que les graves dérives actuelles telles que la manipulation de l’information, le cyberharcèlement ou la haine en ligne ne pourraient recevoir une réponse adaptée si le droit persistait à s’en tenir à la seule distinction de l’éditeur qui répond de tout, et de l’hébergeur qui en principe ne répond de rien. Sur ce point, le DSA innove à plusieurs égards, faisant de la modération des contenus, l’élément central du nouveau rôle attribué aux intermédiaires techniques du Web. Il leur impose tout d’abord une obligation renforcée de transparence sur le fonctionnement de la modération a posteriori, laquelle est en effet souvent dénoncée comme opaque et peu compréhensible, conduisant à d’inévitables contentieux. Twitter – devenu X – a ainsi été contraint judiciairement (11), parce qu’il s’y refusait, de fournir des données sur sa procédure de modération (moyens mis en œuvre, nombre de signalements reçus, …). Les conditions générales des hébergeurs doivent désormais détailler les politiques, process, mesures et outils utilisés à cette fin, y compris en ce qui concerne la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Les informations devront être énoncées « dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté » et mises « à la disposition du public dans un format facilement accessible et lisible ».
Les intermédiaires devront aussi établir un rapport annuel détaillant le type de réclamations reçues des particuliers comme des administrations, et les décisions prises pour y donner suite (12). Instagram, Facebook et d’autres très grandes plateformes ont publié leur premier rapport de transparence fin 2023 (13). On y apprend que les Etats membres sont très peu interventionnistes, notamment la France, et que les injonctions de suppression émanant des autorités sont peu nombreuses. Les intermédiaires devront également être plus transparents sur leur système de recommandation, qui, très souvent, permet de favoriser les contenus les plus violents et donc les plus dangereux pour la paix civile.
Mais là où le DSA innove véritablement, c’est à l’égard des « très grandes plateformes » et des « très grands moteurs de recherche » – ceux qui comptabilisent au moins 45 millions d’utilisateurs actifs dans l’UE. Globalement, les obligations qu’il prévoit vont en effet croissant : tous les intermédiaires techniques sont soumis à une série de règles ; ensuite l’ensemble des hébergeurs sont concernés par plusieurs dispositions complémentaires ; puis parmi les hébergeurs, la catégorie particulière des plateformes devra satisfaire à des engagements encore plus contraignants ; et enfin, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne » seront tenus d’obligations plus sévères encore (14). A leur égard, compte tenu de leur rôle primordial dans la diffusion de l’information au sens large, on considère que la modération a posteriori ne suffit plus à traiter efficacement les dérives les plus graves et c’est pourquoi le DSA leur fait désormais obligation d’intervenir également a priori. Ces « VLOP » (Very Large Online Platforms) et ces VLOSE (Very Large Online Search Engines), dont la liste peut évoluer (15), doivent en effet désormais procéder une fois par an à une auto-analyse de leur fonctionnement et se soumettre à un audit indépendant afin d’en identifier les « risques systémiques » – notamment « lorsque l’accès à des contenus illicites peut se propager rapidement ». Ils doivent ensuite, lorsque ces risques systémiques sont identifiés, mettre « en place des mesures d’atténuation raisonnables, proportionnées et efficaces » (16). On peut voir dans cette évolution, une obligation de modération a priori cette fois, mais de portée générale et non dirigée vers un contenu particulier.
La distinction essentielle entre l’éditeur qui produit le contenu et le contrôle, et l’hébergeur qui reste extérieur au contenu et qui intervient seulement une fois l’illicéité portée à sa connaissance, a donc fait long feu. Mais de nouvelles questions surgissent. En effet, l’irresponsabilité des intermédiaires les plus puissants du marché est-elle toujours un principe intangible ? Peuvent-ils désormais se trouver mis en cause si, malgré les audits qui leur sont imposés, ils n’ont pas correctement identifié les risques et ne sont pas intervenus en amont comme ils l’auraient dû pour en atténuer les conséquences ? Une réponse positive à cette question est parfaitement envisageable. Il ne s’agirait plus alors de déterminer seulement s’ils devaient retirer tel ou tel contenu illicite mais, concrètement, si tel ou tel crime – par exemple un acte terroriste – aurait pu être évité s’ils avaient correctement identifié, analysé le risque et pris les mesures nécessaires pour le limiter ou même l’écarter.

Liberté d’expression : qui est l’« arbitre » ?
Au-delà, l’accroissement de la responsabilisation des très grandes plateformes et très grands moteurs de recherche pose aussi directement la question du rôle du juge dans la sanction des abus de la liberté d’expression. Le DSA ne conduit-il pas à faire de chacune des plus puissantes plateformes mondiales « l’arbitre unique » de celle-ci et de ses dérives ? L’évolution contemporaine de X (ex-Twitter) qui se prévaut d’une liberté totale (dont il y aurait beaucoup à dire au demeurant) ne sonne-t-elle pas déjà comme un sinistre avertissement ? Le débat est en tout cas lancé. @

La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale

Annoncée par le Premier ministre le 15 mai 2024, la décision sans précédent de bloquer TikTok en Nouvelle-Calédonie est attaquée en justice par deux organisations et des Néo-Calédoniens. Le 21 mai, la haute juridiction administrative a donné 24h au gouvernement pour se justifier.

Louis Le Franc (photo de gauche) est le haut-commissaire de la République en Nouvelle-Calédonie. En tant que représentant de l’Etat français de cette collectivité sui generis (ni département d’outre-mer ni territoire d’outre-mer) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre Gabriel Attal (photo de droite)et chacun des ministres français, ce « préfet hors-classe » (le grade le plus élevé) a la charge des intérêts nationaux et assure la direction des services de l’Etat sur le territoire. Il est en outre préfet de la zone de défense de Nouvelle-Calédonie et Wallis-et-Futuna (1).

La liberté d’expression, victime collatérale
C’est à lui qu’est revenue la responsabilité de mettre à exécution l’interdiction de TikTok dans l’archipel secoué quelques jours à partir du 13 mai par des émeutes et des violences, lesquelles sont en lien avec une réforme constitutionnelle visant à élargir le corps électoral, projet contesté par les indépendantistes. Le censure du réseau social du chinois ByteDance (2) a été annoncée le 15 mai par le Premier ministre Gabriel Attal, le haut-commissaire Louis Le Franc ayant de son côté « instauré un couvre-feu et interdit TikTok ». Ce blocage, bien que la décision concernant le réseau social n’avait pas encore été formalisée par un texte – est effectif uniquement sur les smartphones (dixit le cabinet du Premier ministre), mis en œuvre par l’Office des postes et télécommunications de Nouvelle-Calédonie (OPT-NC). C’est d’autant plus facile que cet établissement public gère lui-même l’unique opérateur mobile de l’archipel, Mobilis.

Le locataire de Matignon a aussi indiqué que l’état d’urgence venait d’entrer en vigueur sur l’archipel calédonien par décret du 15 mai (3) et que l’armée était déployée « pour sécuriser » les ports et l’aéroport de Nouvelle-Calédonie. « TikTok a effectivement été interdit mercredi[15 mai] par le PM[Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise. L’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers [le ministre de l’Intérieur Gérald Darmanin accusant l’Azerbaïdjan, tandis que la Chine est suspectée, ndlr], et relayé par les émeutiers », a justifié le 16 mai le cabinet de Gabriel Attal, auprès de Numerama (4). Le lendemain, La Quadrature du Net et la Ligue des droits de l’homme ont déposé deux recours en référé distincts devant le Conseil d’Etat respectivement contre « un coup inédit et particulièrement grave à la liberté d’expression en ligne » (5) et pour « défendre la liberté de communication des idées et des opinions » (6). Tandis que trois NéoCalédoniens contestent aussi la légalité de la décision, d’après Libération (7). Le 21 mai, le juge des référés a donné 24 heures au gouvernement pour motiver le blocage de TikTok.
Le fondement juridique du décret « déclar[ant] l’état d’urgence sur l’ensemble du territoire de Nouvelle-Calédonie » réside dans la loi du 3 avril 1955 relative à l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (8). Déclaré en conseil des ministres pour une durée maximum de douze jours (9), l’état d’urgence ne pourra être prolongé que par une loi adoptée par le Parlement, conformément à l’article 2 de la loi de 1955. « Cette mesure est prise en raison de “circonstances exceptionnelles” », affirme en ligne Matignon, « au juge administratif de contrôler les mesures prises » (10).
Or il y a une différence de taille entre ce que prévoit cette loi « Etat d’urgence » en matière de « provocation à la commission d’actes de terrorisme ou en faisant l’apologie » et ce que dit le cabinet du Premier ministre en parlant de « diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ». Car entre incitation au terrorisme, d’une part, et diffusion de désinformation, d’autre part, il y a une grande nuance. « Aussi grave soit la situation, ce n’est *pas du tout* un motif prévu par la loi. Cette illégalité interroge », a commenté Nicolas Hervieu, professeur de droit public, sur X (ex-Twitter) le 16 mai (11). La veille, il avait déprimé des réserves sur le blocage de TikTok : « La légalité de cette décision de @Interieur_Gouv annoncée par @GabrielAttal est discutable. Car le lien avec le terrorisme est plus que douteux… » (12).

Bloquer TikTok en France est une première
Et Nicolas Hervieu d’enfoncer le clou : « Au passage, ce texte [le dernier alinéa de l’article 11 introduit dans la loi de 1955, ndlr] est né d’un amendement parlementaire inséré dans la loi du 20 novembre 2015 (laquelle a été votée en seulement deux jours). Avec uniquement “l’islamisme radical” et le “djihadisme” en ligne de mire… Il n’a jamais été contrôlé par le Conseil constitutionnel » (13). Ce professeur s’est aussi exprimé dans Le Figaro dans ce sens : « En somme, on permet au pouvoir administratif de limiter l’accès aux réseaux sociaux sur son interprétation du terrorisme. Une mesure qui interrogeait déjà en 2015, puisqu’il n’existe pas de réelle possibilité de la contester en tant que telle. […] sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte » (14). A l’évidence, selon ce juriste, les raisons du gouvernement français en Nouvelle-Calédonie justifiant la censure de TikTok n’entreraient pas dans la définition de « terrorisme » au sens strict du droit.

Le chinois veut discuter avec le gouvernement
« Est-ce que c’est de façon légale que le gouvernement recouru à ce dispositif ou est-ce que c’est un détournement de pouvoir ? Est-ce que c’est un usage excessif d’un dispositif qui n’avait été prévu que pour lutter contre le terrorisme au sens strict du terme et tout particulièrement le terrorisme islamiste ? », a-t-il encore interrogé, cette fois sur France Inter.
Il ne s’agit en aucun cas de minimiser les faits graves qui ont eu lieu en Nouvelle-Calédonie – notamment la mort de six personnes à déplorer. Cette interdiction de TikTok en France – tous territoires confondus – constitue cependant une première pour la République française. La filiale française du chinois ByteDance n’a pas tardé à réagir à son bannissement du « Caillou », appelé aussi « Kanaky ». « Il est regrettable qu’une décision administrative de suspension du service de TikTok ait été prise sur le territoire de la Nouvelle-Calédonie, sans aucune demande ou question, ni sollicitation de retrait de contenu, de la part des autorités locales ou du gouvernement français », a indiqué le 16 mai TikTok France sur France Inter et le 17 mai à Edition Multimédi@ par la voix d’un porte-parole, lequel a ajouté : « Nos équipes de sécurité surveillent très attentivement la situation et veillent à ce que notre plateforme soit sûre. Nous nous tenons à la disposition des autorités pour engager des discussions ». Chez TikTok France, le directeur des politiques publiques et relations gouvernementales n’est autre, depuis septembre 2020 (15), que Eric Garandeau (photo ci-dessus), ancien conseiller culturel du président de la République Nicolas Sarkozy puis PDG du CNC (16).
Le gouvernement français et le haut-commissaire de la République en Nouvelle-Calédonie ont-ils outrepassé leurs droits régaliens ? Que des émeutiers aient utilisé TikTok pour se coordonner sur l’archipel et appeler à la rébellion, cela ne fait apparemment aucun doute au regard de certains comptes jusqu’alors actif sur le réseau social des jeunes. Mais de là à considérer les protestataires et les violents comme des terroristes, il y un pas que la France a sans doute franchi un peu trop vite au détriment ne serait-ce que de la liberté d’expression. « Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter », souligne La Quadrature du Net.
Mais les avis divergent entre juristes sur la question. « S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique », estime pour sa part l’avocat pénaliste parisien et bloggeur « Maître Eolas », pseudonyme de Christian Pelletier, le 15 mai sur son compte X aux 370.000 abonnés (17). Et d’expliquer sur X : « Ce qui se passe en Nouvelle-Calédonie n’est pas (juste) de “grosses manifs”. Ce sont des émeutes violentes. Un gendarme a été tué [un deuxième est mort aussi par la suite, ndlr] et renseignez-vous sur ce qui s’est passé là-bas en 1985 et 1988 ». Rappelons que de l’Elysée le 4 juillet 2023, après les émeutes déclenchées par le meurtre du jeune Nahel, Emmanuel Macron avait lancé : « Quand les choses s’emballent pour un moment, […] on se met peut-être en situation de les […] couper ». Ce propos digne d’un régime autoritaire à la Corée du Nord, à l’Iran ou à la Chine avait provoqué un tollé. La loi « Sécuriser et réguler l’espace numérique » (SREN), elle, prévoit bien une mesure de « bannissement numérique » – dixit Elisabeth Borne alors Première ministre (18) – consistant sur décision du juge à suspendre six mois (un an en cas de récidive) le compte en ligne d’un individu condamné pour des délits sur la plateforme numérique (ou réseau social) en question (19).

DSA : la Nouvelle-Calédonie pas concernée
Bien que la régulation des très grandes plateformes numériques (VLOP) relève désormais dans l’Union européenne (UE) du Digital Services Act (DSA), avec ses garde-fous en cas de blocage demandé par un Etat membre (Commission européenne, l’« Arcom » nationale et un juge), elle n’est pas applicable à TikTok en Nouvelle-Calédonie. « [Bloquer TikTok est] envisageable (en théorie) sur toute portion du territoire non soumise au droit de l’UE. [Mais] inopérante sur toute autre partie soumise au droit de l’UE, les services de la Commission européenne estimant que des troubles à l’ordre public dans un seul Etat ne peuvent fonder blocage de VLOP », a expliqué le 15 mai sur X l’avocat Alexandre Archambault (20), ancien directeur des affaires réglementaires de Free. @

Charles de Laubier

Quel rapport entre le e-commerçant Zalando et trois sites pornos ? Le Digital Services Act !

Les plateformes de e-commerce Zalando et pornographiques Pornhub et Stripchat – mais pas XVideos – ont en commun de contester devant la Cour de justice de l’Union européenne (CJUE) leur inscription dans la liste des « très grandes plateformes en ligne » dans les Vingt-sept régies par le DSA.

Le e-commerçant allemand Zalando avait été désigné le 25 avril 2023 par la Commision européenne – dans le cadre du Digital Services Act (DSA) – comme « très grande plateformes » ou VLOP (1) dans le jargon bruxellois, aux côtés de Alibaba/AliExpress, Amazon Store, Apple/AppStore, Booking, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia et YouTube, ainsi que des « très grands moteurs de recherche en ligne » ou VLOSE (2), Bing et Google Search (3). A ce « Big 19 » sont venus s’ajouter le 28 décembre 2023 trois autres VLOP, les plateformes pornographiques Pornhub, Stripchat et XVideos (4).

La Commission européenne devant la CJUE
Chacune de ces vingt-deux plateformes très fréquentées présentent autant de « risque systémique » qu’elles ont l’obligation de gérer pour l’éviter sous peine d’amendes. Mais depuis juin 2023, Zalando demande à la Cour de justice de l’Union européenne (CJUE) l’annulation de la décision de la Commission européenne, celle du 25 avril 2023 listant les dix-neuf géants du Net qui présentent chacun un « risque systémique » et qui sont soumis de ce fait à des obligations renforcées. Et, selon les informations de Edition Multimédi@, la société Aylo Freesites éditrice du site pornographique Pornhub et basée à Chypre – elle-même rachetée il y a un an par le fonds d’investissement québécois Ethical Capital Partners (ECP) –, vient de déposer, le 1er mars 2024, son recours devant la CJUE. Également basée à Chypre, la société Technius – éditrice du site pornographique Stripchat – avait fait de même le 29 février 2024.

Toujours selon nos informations, la société tchèque WGCZ Holding – cofondée par le Français Stéphane Pacaud et éditrice du site pornographique XVideos – ne déposera pas, elle, de recours devant la CJUE. Car le 29 février 2024, le site XVideos a déclaré en ligne avoir environ « 84 millions d’utilisateurs par mois dans l’Union européenne [dont 40 % de visiteurs en sessions incognito, ndlr], soit au-dessus du quota des 45 millions » (5). Depuis l’entrée en vigueur le DSA (6) le 25 août 2023, sont désignés par la Commission européenne comme « très grande plateforme en ligne » ou « très grand moteur de recherche en ligne », les géants du Net qui totalisent au moins 45 millions d’utilisateurs par mois dans l’Union européenne (UE). Ce seuil est équivalent à 10 % de la population totale des Vingt-sept (7). La société Zalando, basée à Berlin en Allemagne et coprésidée par ses cofondateurs Robert Gentz et David Schneider (photos), a été la première « très grande plateforme en ligne » à contester sa désignation comme VLOP. Le 27 juin 2023 (8), le e-commerçant a donc saisi la CJUE pour demander l’annulation de la décision de la Commission européenne. Dans la requête que Edition Multimédi@ a consultée, la société Zalando estime d’abord que « le [DSA] ne lui est pas applicable, ne serait-ce que parce que son service n’est pas un service intermédiaire et, de ce fait, ni un service d’hébergement ni une plateforme en ligne au sens de ce règlement ». Donc, « la condition de la fourniture de contenus tiers n’est pas remplie » puisque « [Zalando] fournit ses propres contenus par l’intermédiaire de la vente de ses articles ».
Et quand bien même « une partie du service devait être qualifiée de “plateforme en ligne’’, cette partie n’atteindrait pas le seuil de 45 millions de destinataires actifs par mois », assure-t-elle, en pointant « des critères erronés » de la Commission européenne. De plus, la société berlinoise considère que « les règles relatives au calcul du seuil sont trop imprécises et enfreignent le principe de précision consacré par le droit de l’[UE] ». Et Zalando d’enfoncer le clou : le calcul du DSA « ne suffit pas, en raison de sa nature juridique et de son libellé lacunaire ». Aussi, « l’imprécision de la méthode de calcul […] viole le principe d’égalité de traitement en prévoyant un seuil global pour l’ensemble des plateformes en ligne, indépendamment des critères fondés sur le risque des services concernés ».

Zalando estime ne pas être « hébergeur »
Autre grief avancé par Zalando pour demander l’annulation de la décision de la Commission européenne à son égard : « L’application du [DSA] constitue une ingérence disproportionnée dans les droits et libertés fondamentaux […] et viole ainsi le principe de proportionnalité », tandis que « la [Commission européenne] n’expose pas, dans sa décision, la raison pour laquelle le service de [Zalando] relève de la notion de “service d’hébergement” […], alors que c’est une condition essentielle pour l’application de […] de ce règlement » (9). Reste à savoir ce que dira dans un premier temps l’avocat général de la CJUE. @

Charles de Laubier