TikTok menacé d’être banni des Etats-Unis et d’Europe, sa maison mère chinoise ByteDance contre-attaque

Alors que Joe Biden aux Etats-Unis et Ursula von der Leyen en Europe rêvent d’évincer de leur marché respectif TikTok, le réseau social des jeunes, sous des prétextes de « sécurité nationale » (le syndrome « Huawei »), sa maison mère chinoise ByteDance compte bien se battre pour obtenir justice.

(le 14 mai 2024, dans le cadre de l’état d’urgence décrété le 15 mai en Nouvelle-Calédonie, le Premier ministre français Gabriel Attal a annoncé l’interdiction de TikTok dans cet archipel franco-kanak d’Océanie, mesure sans précédent pour des raisons, selon le gouvernement, de « terrorisme ») 

Liang Rubo, PDG de ByteDance

Aux Etats-Unis, Joe Biden a signé le 24 avril la loi obligeant le groupe chinois ByteDance de se séparer de sa filiale américaine TikTok « sous 270 jours » (neuf mois), soit d’ici février 2025. Le chinois a saisi le 7 mai la justice pour demander la révision de ce « Ban Act » qu’il juge inconstitutionnelle. Au Congrès américain, la Chambre des représentants et le Sénat avaient adopté cette loi respectivement le 13 mars et le 23 avril. Le président des Etats-Unis avait aussitôt déclaré qu’il signerait cette loi. En Europe, Ursula von der Leyen a déclaré le 29 avril que « n’est pas exclu » le bannissement de TikTok de l’Union européenne. La présidente de la Commission européenne a lancé sa menace de Maastricht lors d’un débat de candidats à l’élection européenne coorganisé par le journal Politico, après qu’un modérateur ait fait référence au sort réservé à TikTok aux Etats-Unis si la firme de Haidian (nord-ouest de Pékin) ne vendait sa filiale américaine.

Etats-Unis + Europe : 300 millions de tiktokeurs
Le réseau social des jeunes férus de vidéos courtes et musicales est donc frappé du syndrome « Huawei » – géant chinois des équipements télécoms déjà mis à l’écart par des pays occidentaux sous les mêmes prétextes de « risque pour la sécurité nationale » et d’accusation sans preuves de « cyberespionnage ». Déjà, Washington (depuis décembre 2022) et Bruxelles (depuis février 2023) ont interdit à leurs employés et fonctionnaires d’utiliser TikTok sur leurs smartphones professionnels. L’application TikTok, lancée à l’automne 2016 et boostée par l’absorption en août 2018 de sa rivale Musical.ly rachetée par ByteDance en novembre 2017, dépasse aujourd’hui la barre des 1,5 milliard d’utilisateurs dans le monde, dont 170 millions aux Etats-Unis et 135 millions en Europe. TikTok est devenu en sept ans d’existence le cinquième plus grand réseau social au monde, derrière Facebook (3 milliards d’utilisateurs), YouTube (2,5 milliards), WhatsApp (2 milliards) et Instagram (2 milliards). S’il devait être banni des Etats-Unis et d’Europe, son audience chuterait de Continuer la lecture

Le Digital Services Act (DSA) présente un vrai risque pour la liberté d’expression des Européens

Les 19 très grandes plateformes Internet en Europe avaient quatre mois, après avoir été désignées comme telles le 25 avril 2023 par la Commission européenne, pour se mettre en règle avec la législation sur les services numériques (DSA). La liberté d’expression sera-t-elle la victime collatérale ?

La liberté d’expression risque gros en Europe depuis le 25 août 2023, date à laquelle les 19 très grandes plateformes numériques – Alibaba, AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing, et Google Search – doivent appliquer à la lettre le Digital Services Act (DSA), sous peine d’être sanctionnées financièrement jusqu’à 6 % de leur chiffre d’affaires mondial.

« Définition large » des « contenus illicites »
Cette épée de Damoclès suspendue au-dessus de la tête de ces 19 géants du Net, dépassant chacun plus de 45 millions d’utilisateurs actifs par mois (soit l’équivalent de 10 % de la population de l’Union européenne), pourrait les pousser à faire de l’excès de zèle. Et ce, pour ne pas prendre le risque d’être hors des clous du DSA et de se voir infliger une sanction pécuniaire. Entre leur désignation le 25 avril 2023 comme « Very large Online Platforms » (VLOP) par la Commission « von der Leyen » (photo) et leur mise en conformité avec la législation sur les services numériques, les dix-sept très grandes plateformes et les deux grands moteurs de recherche avaient un délai de quatre mois pour se préparer.
Depuis le 25 août 2023, soit moins d’un an après la publication du règlement au Journal officiel de l’Union européenne (1), le « Big 19 » est censé agir comme un seul homme pour réguler en Europe une grande partie de l’Internet relevant de leurs activités (2). Le DSA les oblige désormais à lutter contre « la diffusion de contenus illicites en ligne et contre les risques pour la société que la diffusion d’informations trompeuses ou d’autres contenus peuvent produire ». Vaste et flou à la fois. Le règlement européen donne en effet à la notion de « contenus illicites » une « définition large » (3). Elle couvre ainsi « les informations relatives aux contenus, produits, services et activités illégaux » ainsi que « des informations, quelle que soit leur forme, qui, en vertu du droit applicable, sont soit ellesmêmes illicites, comme les discours haineux illégaux ou les contenus à caractère terroriste et les contenus discriminatoires illégaux, soit rendues illicites par les règles applicables en raison du fait qu’elles se rapportent à des activités illégales ». Et le DSA de donner des exemples d’« activités illégales » : partage d’images représentant des abus sexuels commis sur des enfants, partage illégal d’images privées sans consentement, harcèlement en ligne, vente de produits non conformes ou contrefaits, vente de produits ou de la fourniture de services en violation du droit en matière de protection des consommateurs, utilisation non autorisée de matériel protégé par le droit d’auteur, offre illégale de services de logement ou vente illégale d’animaux vivants. « En revanche, précise néanmoins le DSA, la vidéo d’un témoin oculaire d’une infraction pénale potentielle ne devrait pas être considérée comme constituant un contenu illicite simplement parce qu’elle met en scène un acte illégal, lorsque l’enregistrement ou la diffusion au public d’une telle vidéo n’est pas illégal ». Pour lutter contre les contenus illicites, et ils sont nombreux, les grandes plateformes du Net doivent assurer – elles-mêmes ou par un intermédiaire, de façon automatisées ou pas – une « modération des contenus », à savoir : « détecter et identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales », « lutter contre ces contenus ou ces informations, y compris les mesures prises qui ont une incidence sur la disponibilité, la visibilité et l’accessibilité de ces contenus ou ces informations ». La modération de contenus illicites peut consister en leur « rétrogradation », leur « démonétisation », leur « accès impossible » ou leur « retrait », voire en procédant à « la suppression ou la suspension du compte d’un destinataire » (4).
Toutes ces restrictions possibles doivent être stipulées dans les conditions générales d’utilisation de la grande plateforme numérique, renseignements comprenant « des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain » (5).

Responsabilité limitée et injonctions
Si le DSA conserve le cadre de l’« exemption de responsabilité » des « fournisseurs de services intermédiaires » (statut d’hébergeur) telle qu’édictée par la directive européenne « E-commerce » de 2000 (6), cette « sécurité juridique » tombe dès lors que la plateforme numérique « a effectivement connaissance ou conscience d’une activité illégale ou d’un contenu illicite », et qu’elle doit de ce fait « agir rapidement pour retirer ce contenu ou rendre l’accès à ce contenu impossible » (7). Les exemptions de responsabilité sont réaffirmées par le DSA, lequel précise bien qu’elles n’empêchent pas de pouvoir aussi « procéder à des injonctions de différents types à l’encontre des fournisseurs de services intermédiaires », ces injonctions pouvant émaner « de juridictions ou d’autorités administratives » pour exiger « qu’il soit mis fin à toute infraction ou que l’on prévienne toute infraction, y compris en retirant les contenus illicites spécifiés dans ces injonctions, ou en rendant impossible l’accès à ces contenus » (8). C’est en cela que le DSA modifie la fameuse directive « E-commerce ».

La liberté d’expression menacée
Les Européens risquent-ils d’être les grands perdants en termes de liberté d’expression sur Internet ? Garantis par la Charte des droits fondamentaux de l’Union européenne (9), la liberté d’expression et d’information, la liberté d’entreprise, le droit à la non-discrimination et la garantie d’un niveau élevé de protection des consommateurs le sont aussi par le DSA qui y fait référence à de nombreuses reprises (10). « Les fournisseurs de très grandes plateformes en ligne devraient, par exemple, en particulier, tenir dûment compte de la liberté d’expression et d’information, notamment la liberté et le pluralisme des médias », stipule notamment le DSA (11). « Toute mesure prise par un fournisseur de services d’hébergement à la suite de la réception d’une notification devrait être strictement ciblée [sur le contenu illicite, ndlr], sans porter indûment atteinte à la liberté d’expression et d’information des destinataires du service », est-il ajouté (12).
Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne sont tenus d’« éviter des restrictions inutiles à l’utilisation de leur service, compte devant dûment être tenu des effets négatifs potentiels sur les droits fondamentaux » et « accorder une attention particulière aux répercussions sur la liberté d’expression » (13). Le règlement sur les services numériques, dans son article 14, oblige donc les plateformes à « [tenir] compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux ». Et dans son article 34, le DSA oblige les grands acteurs du Net à recenser, analyser et évaluer de manière diligente « tout risque systémique », notamment « tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux » : non seulement liberté d’expression et d’information, y compris liberté et le pluralisme des médias, mais aussi dignité humaine, respect de la vie privée et familiale, protection des données à caractère personnel, non-discrimination, droits de l’enfant, et protection des consommateurs (14). Pour parer au pire, il est prévu à l’article 48 que la Commission européenne – assistée par un Comité pour les services numériques (Digital Services Committee) – « s’efforce de garantir que les protocoles de crise établissent clairement », entre autres, « les mesures de sauvegarde contre les effets négatifs éventuels sur l’exercice des droits fondamentaux consacrés dans la Charte [des droits fondamentaux de l’Union européenne], en particulier la liberté d’expression et d’information et le droit à la non-discrimination » (15). A la question « Comment comptez-vous maintenir un juste équilibre avec les droits fondamentaux tels que la liberté d’expression ? », la Commission européenne avait répondu, dans un Q&A du 25 avril dernier : « Le règlement sur les services numériques donne aux utilisateurs la possibilité de contester les décisions de suppression de leurs contenus prises par les plateformes en ligne, y compris lorsque ces décisions s’appuient sur les conditions générales des plateformes. Les utilisateurs peuvent introduire une plainte directement auprès de la plateforme, choisir un organisme de règlement extrajudiciaire des litiges ou demander réparation devant les tribunaux ».
Au plus tard le 17 novembre 2025, la Commission européenne évalue notamment « l’incidence sur le respect du droit à la liberté d’expression et d’information » (16) et remet un rapport à ce sujet au Parlement européen, au Conseil de l’Union européenne et au Comité économique et social. L’avenir nous dira si le DSA est une arme à double tranchant pour la liberté d’expression et la démocratie en Europe. Tandis que pour le Digital Markets Act (DMA), cette fois, sept géants du Net – Alphabet (Google/ YouTube), Amazon, Meta (Facebook/ Instagram), Apple, Microsoft, Samsung et ByteDance (TikTok) – vont être le 6 septembre désignés officiellement par la Commission européenne (17) comme des « gatekeepers » (contrôleurs d’accès) soumis à des règles de concurrence renforcées.

Des garde-fous contre la censure ?
Lorsque le commissaire européen au Marché intérieur, Thierry Breton (photo ci-dessus), a lancé le 10 juillet 2023 sur Franceinfo que « lorsqu’il y aura des contenus haineux, des contenus qui appellent par exemple à la révolte, qui appellent également à tuer ou à brûler des voitures, [ces plateformes] auront l’obligation dans l’instant de les effacer » (18). Et en prévenant :« Si elles ne le font pas, elles seront immédiatement sanctionnées (…) non seule-ment donner une amende mais interdire l’exploitation sur notre territoire ». Ses propos ont aussitôt soulevé une vague d’inquiétudes sur les risques de censures. Il a dû revenir sur Franceinfo le 25 août (19) pour tenter de rassurer à propos du DSA : « C’est la garantie de nos libertés, c’est tout sauf le ministère de la censure ». @

Charles de Laubier

Altice contre Reflets.info : procès-bâillon au nom du secret des affaires versus liberté de la presse

Des syndicats d’éditeurs et de journalistes de la presse (Spiil, SNJ, SNJ-CGT, FEJ, …) s’insurgent contre la « censure » du site de presse en ligne Reflets.info, condamné le 6 octobre en référé à « ne pas publier de nouvelles informations » sur le groupe Altice et son PDG Patrick Drahi.

Le tribunal de commerce de Nanterre a ordonné en référé le 6 octobre 2022 à la société éditrice Rebuild.sh de « ne plus publier sur le site de son journal en ligne “Reflets.info” de nouvelles informations » issues des données piratées en août dernier par les hackeurs « Hive » sur le réseau informatique du groupe Altice, et l’a condamnée « à payer à chacune des sociétés Altice Group Lux [basée au Luxembourg, ndlr], Altice France et Valais Management Services [le family office de la famille de Patrick Drahi, PDG fondateur du groupe Altice, ndlr] la somme de 1.500 euros », soit 4.500 euros au total pour compenser leurs frais de justice.

« Dommage imminent » sur Altice ?
Sans se prononcer sur le fond, n’étant pas compétent en référé sur « une éventuelle atteinte à la liberté d’expression », le tribunal de commerce de Nanterre où l’audience s’est tenue le 27 septembre, justifie l’interdiction pour Reflets.info de publier de « nouvelles informations » – sur le groupe Altice (SFR, BFMTV, RMC, …) et sur le train de vie son PDG milliardaire Patrick Drahi (photo) – au motif que son éditeur Rebuild.sh « a manifesté son intention de poursuivre la publication » sur son site de presse en ligne d’articles révélant des informations (1) issues de ce piratage effectué par un rançongiciel. Pour le juge Luc Monnier (ayant délégation du président du tribunal de commerce de Nanterre), cela « fait peser une menace sur les sociétés du groupe Altice face à l’incertitude du contenu des parutions à venir qui pourraient révéler des informations relevant du secret des affaires ».
Et le juge d’affirmer : « Cette menace peut être qualifiée de dommage imminent » (2). Rebuild.sh a interjeté appel de cette décision. Plusieurs syndicats de la presse se sont insurgés contre cette atteinte à la liberté d’informer, que cela soit le Syndicat de la presse indépendante d’information en ligne (Spiil), dont Reflets.info est l’un des 260 membres (3), mais aussi le Syndicat national des journalistes (SNJ) qui a réagi dès le 29 septembre (4), la Fédération européenne des journalistes (FEJ) le 30 septembre (5) ou encore le SNJ-CGT le 6 octobre (6). Le Spiil, lui, s’insurge contre ce jugement en référé et estime que « la décision du tribunal de commerce instaure de fait une censure en interdisant à un éditeur de publier de nouveaux articles ». Le syndicat créé en octobre 2009, et qui représente aujourd’hui 260 membres pour un total de 314 titres de presse (7) dont Reflets.info, voit se « confirmer [ses] craintes concernant le fait que la loi sur le secret des affaires permette à des entreprises d’interdire à des médias de publier des informations en s’appuyant sur le droit commercial ». Cette loi controversée du 30 juillet 2018 portant sur « la protection du secret des affaires » (8) avait déjà soulevé des craintes à l’époque car considérée comme une menace sur la liberté et le droit d’informer, un risque de muselage des journalistes et des lanceurs d’alerte.
Le texte de loi était même passé, avant d’être promulgué, par les fourches caudines du Conseil Constitutionnel qui, dans sa décision du 26 juillet 2018 (9), a rappelé que la liberté d’expression et de communication est protégée tant par la Charte des droits fondamentaux de l’Union européenne, notamment dans son article 11 (10), que par la Déclaration des droits de l’Homme et du citoyen de 1789 (11). Les sages de la rue Montpensier ont quand même rappelé qu’il existe « des exceptions à la protection du secret des affaires », notamment au profit des lanceurs d’alerte (12). L’article L. 151-8 du code de commerce (13) ne prévoit-il pas que « le secret n’est pas opposable lorsque son obtention, son utilisation ou sa divulgation est intervenue : pour exercer le droit à la liberté d’expression et de communication, y compris le respect de la liberté de la presse, et à la liberté d’information (…) ; pour révéler, dans le but de protéger l’intérêt général et de bonne foi, une activité illégale, une faute ou un comportement répréhensible, y compris lors de l’exercice du droit d’alerte (…) » ?
La haute institution de la Ve République en conclut que cet article L. 151-8 du code de commerce « ne méconnaît aucune autre exigence constitutionnelle » et « est conforme à la Constitution ».

Liberté de la presse : principe constitutionnel
Or, comme l’avait souligné les députés et les sénateurs à l’origine de la saisine constitutionnelle, la loi « Protection du secret des affaires » non seulement ne mentionne pas explicitement parmi les exceptions le journalisme d’investigation ni la protection des sources des journalistes, mais aussi elle impose en outre que la liberté d’expression et de communication fasse l’objet d’« une instance [judiciaire devant un tribunal civil ou commercial, ndlr] relative à une atteinte au secret des affaires » pour être évaluée voire neutralisée (avant tout procès au fond). Alors même que ce droit d’informer devrait s’imposer de lui-même comme droit fondamental. C’est là que le bât blesse. Le 6 octobre dernier, le Spiil a appelé à « faire reconnaître la liberté de la presse comme principe constitutionnel » (14). Lors des débats de transposition en France, au printemps 2018, de la directive européenne « Secret des affaires » datant de 2016 (15), le Spiil était déjà monté au créneau pour regretter que « la primauté du droit à être informé sur le droit aux secrets ne soit pas exprimée avec suffisamment de clarté ». Et le syndicat de la presse en ligne de mettre en garde contre « une multiplication des procédures contentieuses ».

Loi du 29 juillet 1881 et « procès-bâillon »
Le Spiil à l’époque (il y a plus de quatre ans) de dénonçait déjà les risques : « Les éditeurs de presse, souvent de très petites tailles, n’ont pas les moyens de soutenir des procédures abusives. Or certains acteurs économiques sont friands de ces “procès-bâillon”. Cette confusion risque donc de générer un comportement d’autocensure, préjudiciable à notre démocratie ». Le Conseil d’Etat, dans son avis rendu jeudi 15 mars 2018, rejoignait ces préoccupations en indiquant qu’« en toute logique, conformément à la directive [européenne de 2016], il conviendrait (…) de mentionner au nombre des cas licites, et non parmi les dérogations, l’hypothèse de l’obtention d’un secret des affaires dans le cadre de l’exercice du droit à l’information (…) » (16). Et ce n’est pas faute de ne pas avoir demandé au législateur et aux pouvoirs publics de tenir compte du droit fondamental qu’est la liberté d’expression, telle que consacrée par la loi du 29 juillet 1881 sur la liberté de la presse (17), en l’inscrivant nommément dans la loi « Protection du secret des affaires ». Ce qui ne fut pas fait, au risque de déséquilibrer ce texte législatif au profit du secret pour les entreprises. La loi du 29 juillet 1881 sur la liberté de la presse encadre la responsabilité des éditeurs de presse et, assure le Spiil, présente les garanties nécessaires pour permettre au juge de bien apprécier la valeur d’intérêt général des informations révélées.
Deux décisions rendues en juin 2019 – l’une de la cour d’appel de Paris dans l’ a f faire « Conforama/ Challenges.fr » (18), d’une part, et l’autre de la Cour de cassation dans l’affaire « Consolis/Mergermarket- Debtwire.com » (19), d’autre part – sont venues concrétiser la menace judiciaire qui pèse sur le droit d’informer, notamment là aussi sur des révélations faites par les sites de presse en ligne (20). Ce fut par exemple le cas aussi en 2014 lorsque TourMag.com, site de presse spécialisé dans l’actualité du secteur du tourisme, avait été condamné pour avoir publié des informations économiques et sociales (non démenties) concernant le tour-operator TUI, acteur important de ce secteur. « Pour la première chambre civile de la Cour de cassation, a rappelé le Spiil, il s’agissait d’une violation du Code du travail et de la loi de 2004 pour la confiance dans l’économie numérique »? (21).
Le site de presse en ligne Reflets.info, qui se définit luimême comme un « journal d’investigation en ligne et d’information hacking », n’est pas à l’origine du piratage informatique d’Altice. Bien que le titre ait été cofondé en 2010 par journaliste Antoine Champagne alias « Kitetoa », journaliste, et Olivier Laurelli alias « Bluetouff », hackeur (22). Le groupe de pirates informatiques Hive, lui, avait procédé à sa cyberattaque au ransomware en août 2022 et, à défaut du paiement de la rançon (23) de 5,5 millions de dollars demandée par les hackeurs, a mis en ligne sur le Dark Net – la face obscure d’Internet accessible notamment par le logiciel Tor – des documents financiers et documents privés ainsi récupérés. La défense de l’éditeur Rebuild.sh l’affirme : « Ni le piratage, ni l’accessibilité des documents piratés ne sont du fait du journal “Reflets”. (…) Si les informations relèvent éventuellement de la vie privée du dirigeant de la société Altice [Patrick Drahi, ndlr], elles ne relèvent certainement pas du “secret des affaires” au sens de la loi ». Dans un communiqué du 6 octobre, celui-ci relève que le juge empêche Reflets.info de publier « de nouvelles informations » mais en revanche qu’« il n’a [pas] lieu à référé sur autres demandes » d’Altice « à l’encontre » de Rebuild.sh : « En clair, nous ne sommes pas censurés sur le passé… mais sur l’avenir ! Ce qui laisse présager des futures et potentielles entraves à l’encontre de l’ensemble de la presse. (…) L’effet voulu, c’est à dire un procès-bâillon pour faire taire les journalistes, est atteint », prévient l’éditeur du site de presse en ligne incriminé (24).

Rebuild.sh/Reflets.info fait appel (procès et dons)
Le groupe Altice, qui demandait la suppression de trois articles « sous astreinte de 500 euros par jour de retard », n’a donc pas eu gain de cause sur les articles déjà en ligne (25). Le tribunal de commerce de Nanterre a rappelé dans son ordonnance du 6 octobre qu’« il ne relève pas de la compétence du président du tribunal de commerce statuant en référé de se prononcer sur une éventuelle atteinte à la liberté d’expression qui nécessite ici un débat de fond ». Pour faire face à ses frais de justice, y compris pour la procédure en appel, l’association J’aime l’info – reconnue d’intérêt général – organise une collecte de fonds en ligne (26) pour Reflets.info. @

Charles de Laubier

L’article 17 de la directive « Copyright » validé, le filtrage des contenus sur Internet peut commencer

La Cour de justice européenne (CJUE) a validé le 26 avril 2022 l’article 17 de la directive « Droit d’auteur et droits voisins dans le marché unique numérique ». Le filtrage des contenus mis en ligne soulève des questions. La liberté d’expression et d’information risque d’être la victime collatérale.

En France, aussitôt après que la Cour de justice de l’Union européenne (CJUE) ait – dans un arrêt du 26 avril 2022 – validé le controversé article 17 sur le filtrage des contenus mis en ligne sur Internet, au nom de la lutte contre le piratage, l’Arcom a publié deux questionnaires pour l’ « évaluation du niveau d’efficacité des mesures de protection des œuvres et des objets protégés » par le droit d’auteur et les droits voisins. L’un s’adresse aux fournisseurs de services de partage de contenus (de YouTube à TikTok en passant par Facebook et Twitter). L’autre s’adresse aux titulaires de droits (de l’audiovisuel à la musique en passant par la radio, les podcasts, la presse écrite, les photos, les illustrations, les livres ou encore les jeux vidéo). Ils ont tous jusqu’au 20 juin 2022 pour y répondre (1).

Content ID, Rights Manager, Surys, TMG, …
La France est, parmi les Vingt-sept, le pays qui veut être le bon élève dans la transposition de la directive européenne de 2019 sur « le droit d’auteur et les droits voisins dans le marché unique numérique » (2), censée l’être depuis le 7 juin 2021 par tous les Etats membres. Sans attendre l’échéance, le gouvernement français avait pris une première ordonnance dès le 12 mai 2021 pour transposer (3) les dispositions concernant la responsabilité des plateformes et le fameux article 17.
Maintenant que la CJUE a tranché en faveur de la validité de cet article 17 au regard de la liberté d’expression et d’information, l’Arcom consulte les ayants droit et les plateformes de partage en vue de publier des recommandations (4) pour améliorer l’« efficacité » et la « robustesse » des mesures de protection mises en place par les acteurs du Net concernés, ainsi que leur « transparence », leur « simplicité d’usage » et leur « finesse ». Ces systèmes automatisés et méconnus du grand public se nomment, pour n’en citer que quelques uns : Content ID (YouTube), Rights Manager (Facebook), Audible Magic (5), Signature (Ina), Surys (ex-Hologram Industries, ex-Advestigo), Trident Media Guard (TMG), Kantar ACR (ex-NexTracker et SyncNow de Civolution), Digimarc (acquéreur d’Attributor) ou encore Blue Efficience (6). Ces outils de filtrage de contenus en ligne font de la reconnaissance automatique des ces contenus en recourant soit au « hachage numérique » (hashing), soit au « marquage numérique » (watermarking), soit – de façon plus sophistiquée, automatisée et la plus répandue – à l’« empreinte numérique » (fingerprinting). Mais l’Arcom comme ses homologues de l’Union européenne réunis au sein de l’Erga (7) savent que le filtrage des contenus sur Internet à l’aide de ces outils de protection – pour distinguer entre un contenu illicite et un contenu licite, sans bloquer ce dernier – relève d’un exercice d’équilibrisme entre le droit fondamental de la liberté d’expression et d’information, d’une part, et le droit de propriété intellectuelle, d’autre part.
Autant dire que les régulateurs et les plateformes vont marcher sur des œufs. La Commission européenne avait bien publié le 4 juin 2021 ses lignes directrices sur l’application de l’article 17, en insistant sur « la nécessité d’équilibrer les droits fondamentaux et le recours aux exceptions et limitations [au droit d’auteur et aux droits voisins] » (8). Elle avait aussi prévenu que l’objectif n’était pas de créer une obligation générale de surveillance de l’Internet (9). Mais malgré ses « orientations », les craintes sur la liberté d’expression et d’information ont persisté. Celle-ci est garantie par la Charte des droits fondamentaux de l’Union européenne : « Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontières » (article 11). Et c’est à la suite d’un recours – en annulation de l’article 17 – introduit le 24 mai 2019 par la Pologne que la CJUE a dû mettre les choses au clair vis-à-vis de ces droits fondamentaux, tout en rejetant ce recours avec le soutien de la France, de l’Espagne et du Portugal. Les juges ont suivi – comme souvent à la CJUE – les conclusions que l’avocat général, Henrik Saugmandsgaard Øe (photo), ou usuellement Henrik Øe, avait rendues le 15 juillet 2021 (10).

Varsovie opposé à Paris sur la liberté
Dans sa plaidoirie, la Pologne estime que l’article 17 viole le droit à la liberté d’expression et d’information garanti par l’article 11 de la Charte. Son argumentation était la suivante : « Afin d’être exonérés de toute responsabilité pour le fait de donner au public l’accès à des œuvres protégées par le droit d’auteur ou à d’autres objets protégés qui ont été téléversés par leurs utilisateurs en violation du droit d’auteur, les fournisseurs de services de partage de contenus en ligne sont contraints, en vertu de l’article 17, (….) de procéder, de manière préventive, à une surveillance de l’ensemble des contenus que leurs utilisateurs souhaitent mettre en ligne. Pour ce faire, ils devraient utiliser des outils informatiques permettant le filtrage automatique préalable de ces contenus ». Et Varsovie de conclure : « En imposant, de fait, de telles mesures de surveillance préventive aux fournisseurs de services de partage de contenus en ligne sans prévoir de garanties assurant le respect du droit à la liberté d’expression et d’information, les dispositions litigieuses constitueraient une limitation de l’exercice de ce droit fondamental qui ne respecterait ni le contenu essentiel de celui–ci ni le principe de proportionnalité et qui, par conséquent, ne saurait être considérée comme étant justifiée ».

Trois conditions cumulatifs obligatoires
Le Parlement européen, le Conseil de l’Union européenne, soutenus par la France et l’Espagne, ainsi que par la Commission européenne, se sont inscrits en faux contre ce « moyen unique » soulevé par la Pologne. Dans son arrêt du 26 avril 2022, la CJUE rappelle que l’article 17, introduit « un régime de responsabilité spécifique pour l’hypothèse où aucune autorisation n’est accordée ». Pour autant, les plateformes ne peuvent « s’exonérer de leur responsabilité pour de tels actes de communication et de mise à disposition de contenus violant le droit d’auteur que sous certaines conditions cumulatives » :
Ils ont fourni leurs meilleurs efforts pour obtenir une autorisation.
Ils ont fourni leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour garantir l’indisponibilité d’œuvres et autres objets protégés spécifiques pour lesquels les titulaires de droits ont fourni aux fournisseurs de services les informations pertinentes et nécessaires. C’est ce que l’on appelle le principe juridique du « notice and take down » que l’on retrouve aussi aux Etats-Unis dans le Digital Millennium Copyright Act (DMCA).
Ils ont agi promptement, dès réception d’une notification suffisamment motivée de la part des titulaires de droits, pour bloquer l’accès aux œuvres et autres objets protégés faisant l’objet de la notification ou pour les retirer de leurs sites Internet, et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur. C’est l’équivalent cette fois du « notice and stay down » qui n’est cependant pas prévu dans le DMCA malgré la tentative du sénateur américain Thomas Tillis en décembre 2020 de l’introduire. Ce sont ces trois « conditions cumulatives » qu’a dénoncées Varsovie face à l’avocat général de la CJUE soutenu par Paris. L’arrêté rejetant le recours rappelle que les acteurs du Net visés par l’article 17 n’agissent pas seuls : ils n’agissent que s’ils ont reçu de la part des titulaires de droits et dans le cadre d’une procédure de notification « les informations pertinentes et nécessaires » pour agir contre le piratage présumé. Les mesures prises par les plateformes de partage de contenus en ligne se font donc « en coopération avec les titulaires de droits ». Et la CJUE d’assurer que ces filtrages automatiques sur Internet « ne devraient pas avoir pour conséquence d’empêcher la disponibilité de contenus qui ne portent pas atteinte au droit d’auteur, y compris d’œuvres ou d’autres objets protégés dont l’utilisation est couverte par un accord de licence, ou par une exception ou une limitation au droit d’auteur ou aux droits voisins » (considérant 66 de l’arrêt). Car il ne s’agit pas de sacrifier la liberté d’expression, de création et d’information – dont font partie la citation, la critique, la revue, la caricature, la parodie ou le pastiche – sur l’autel du droit de propriété intellectuelle (11). Il est en outre rappelé que l’article 17 prévoit lui-même que son « application (…) ne donne lieu à aucune obligation générale de surveillance » (son huitième point).
Pourtant, certains pourraient dire « et en même temps »…, l’avocat général Henrik Øe avait averti dans ses conclusions rendues le 15 juillet 2021 et suivies comme souvent par la Cour que « pour pouvoir effectuer un tel contrôle préalable, les fournisseurs de services de partage de contenus en ligne sont, en fonction du nombre de fichiers téléversés et du type d’objet protégé en question, (…) contraints de recourir à des outils de reconnaissance et de filtrage automatiques » (points 57 à 69 de ses conclusions). Et l’arrêt du 26 avril 2022 d’abonder : « En particulier, ni les institutions défenderesses ni les intervenants n’étaient en mesure, lors de l’audience devant la Cour, de désigner des alternatives possibles à de tels outils » (considérant 54).

Du fingerprinting au matching, et après ?
Les outils de reconnaissance ou ACR (Automatic Content Recognition), qui recourent à l’« empreinte numérique » (fingerprinting), filtrent automatiquement les œuvres et autres objets protégés par le droit d’auteur et les droits voisins dès que les internautes les « téléversent » sur les plateformes de partage et les réseaux sociaux. S’effectue alors automatiquement une comparaison de ces contenus mis en ligne avec des informations de référence fournies par les titulaires de droit. Lorsqu’il y a correspondance, on parle de « match ». L’ayant droit a alors le choix : soit bloquer le contenu « piraté », soit de le laisser en ligne en étant informé sur son audience, voire de l’ouvrir à de la publicité en ligne pour le monétiser. @

Charles de Laubier

Ce que les GAFAM pensent de l’« accord politique provisoire » européen sur le Digital Services Act

Les grandes plateformes « systémiques » concernées par la future régulation du Digital Services Act (DSA) font bonne figure face à l’arsenal législatif qui entrera en vigueur d’ici fin 2023. Google, Amazon, Facebook, Apple ou encore Microsoft devront être plus précautionneux en Europe. Qu’en disent-ils ?

« Nous apprécions les efforts déployés pour créer un marché unique numérique européen plus efficace, clarifier les responsabilités de chacun et protéger les droits en ligne », a déclaré Victoria de Posson (photo de gauche), directrice des affaires publiques de la CCIA Europe, la représentation à Bruxelles de l’association américaine du même sigle, dont sont notamment membres les géants du Net, mais pas Microsoft (1). Elle « reconnaît le travail acharné des décideurs pour parvenir à cet accord historique », tout en mettant un bémol : « Cependant, un certain nombre de détails importants restent à éclaircir » (2). C’est le cas des obligations de retrait de contenus notifiés comme illicites.

« Accord politique provisoire » : et après ?
Car ce qui a été signé le 23 avril vers 2 heures du matin (3), après de longues négociations entamées la veille, n’est encore qu’un « accord politique provisoire » obtenu à l’arrachée entre les négociateurs de la commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen sur les services numériques, et le Conseil de l’Union européenne – dont Cédric O représentait la France qui préside l’Union européenne jusqu’au 30 juin prochain. Le DSA en cours de finalisation prévoit de réguler les grandes plateformes numériques dites « systémiques » pour : les obliger à lutter contre le piratage et les contenus illicites, les contraindre à donner accès à leurs algorithmes, les amener à renforcement de la protection des mineurs notamment vis-à-vis des contenus pornographiques ou vis-à-vis de la publicité ciblée fondée sur des données sensibles (orientation sexuelle, religion, origine ethnique, etc.), les forcer à mieux informer les utilisateurs sur la manière dont les contenus leur sont recommandés.
Mais le diable étant dans « les détails importants », la CCIA Europe attend beaucoup de la dernière ligne droite de ce texte unique au monde. Selon les informations de Edition Multimédi@, ce futur règlement DSA devra être approuvé par le Coreper, à savoir le comité des représentants permanents au Conseil de l’UE, et par l’Imco. « Nous espérons que le vote final en plénière aura lieu en juillet, mais cela doit encore être confirmé. Le vote en plénière sera suivi d’un accord formel au Conseil de l’UE », indique une porte-parole du Parlement européen. Pour l’heure, le texte passe par les fourches caudines des juristes-linguistes pour être finalisé techniquement et vérifié jusqu’à la virgule près. Une fois la procédure terminée, probablement l’été prochain, il entrera en vigueur vingt jours après sa publication au Journal officiel de l’UE – sous la présidence cette fois de la République tchèque – et les règles commenceront à s’appliquer quinze mois après, c’est-à-dire au second semestre 2023. Car un règlement européen s’applique dans sa totalité et directement, contrairement à une directive européenne qui donne des objectifs à atteindre par les Etats membres, en leur accordant un délai de plusieurs mois pour les transposer dans la législation nationale.
Les GAFAM auront le temps (quinze mois) de se préparer pour ne pas tomber sous le coup de cette nouvelle loi européenne. Par ailleurs, il ne faudra pas s’attendre à ce que le voyage prévu du 23 au 27 mai prochain dans la Silicon Valley par une délégation de la commission Imco – pour notamment visiter plusieurs sièges sociaux de Big Tech telles que Meta (ex-Facebook), Google ou Apple – change les données du problème. Cette délégation d’eurodéputés y rencontrera également d’autres entreprises du numérique, des start-up, des universitaires américains ainsi que des représentants du gouvernement. « La mission aux Etats-Unis n’affectera pas l’accord politique déjà conclu avec les autres institutions. Elle sera une occasion d’explorer plus en profondeur les questions actuelles liées aux dossiers en cours sur le marché unique numérique au sein de la commission du marché intérieur (Imco) », nous précise la porte-parole du Parlement européen.

Attention aux libertés fondamentales
Cette escapade au pays des GAFAM sera notamment une opportunité pour les députés d’examiner la législation américaine sur le commerce électronique et les plateformes, en faisant le point sur les négociations récemment conclues en rapport avec les dossiers DSA et DMA (Digital Markets Act, pendant concurrentiel du DSA), ainsi que sur d’autres dossiers en cours comme celui sur l’intelligence artificielle. Également contactée, Victoria de Posson n’attend « pas d’impact sur le DSA » de ce voyage. Reste que le DSA, lui, ne sera pas facile à mettre en oeuvre par les GAFAM tant il touche à la liberté des internautes européens. C’est en tout cas ce que pointe DigitalEurope (ex-Eicta), organisation professionnelle des GAFAM entre autres Big Tech (4), et également installée à Bruxelles : « Le cadre du DSA crée un ensemble d’obligations à plusieurs niveaux pour différents types et tailles de services Internet, dont certains seront très complexes à mettre en oeuvre parce qu’ils touchent aux droits fondamentaux comme la liberté d’expression. Nous exhortons tous les intervenants à collaborer de façon pragmatique pour obtenir les meilleurs résultats », prévient sa directrice générale, Cecilia Bonefeld-Dahl (photo de droite).

Retrait de contenus : risque de censure
Bien que le futur règlement sur les services numériques aidera, d’après DigitalEurope, à rendre l’Internet plus sûr et plus transparent, tout en réduisant la propagation de contenus illégaux et de produits dangereux en ligne, « la modération du contenu sera toujours difficile, compte tenu des intérêts concurrents en cause » (5). D’autant que la réglementation d’Internet est un équilibre entre la protection des droits fondamentaux comme la liberté d’expression, d’une part, et la prévention des activités illégales et nuisibles en ligne, d’autre part.
Il y a un an, dans un « position paper » sur le DSA, DigitalEurope se félicitait déjà que « la proposition préserve les principes fondamentaux de la directive sur le commerce électronique, qui ont permis à l’Europe de se développer et de bénéficier d’une économie Internet dynamique ». Et de se dire satisfaite : « Le maintien de principes tels que la responsabilité limitée, l’absence de surveillance générale et le pays d’origine est essentiel à la poursuite de l’innovation et de la croissance de ces services numériques en Europe et sera crucial pour une reprise économique rapide ». Par exemple, le lobby des GAFAM a souligné que le DSA reconnaît que le contenu préjudiciable (mais légal) exige un ensemble de dispositions différent du contenu illégal. Le contenu nuisible et contextuel, difficile à définir, peut être subjectif sur le plan culturel et est souvent juridiquement ambigu. Est apprécié également le fait que le texte impose aux plateformes numériques des « exigences de diligence raisonnable » (signaleurs fiables, traçabilité des négociants et mécanismes de transparence), « de façon proportionnelle et pratique ». De plus, DigitalEurope est favorable pour fournir aux intervenants une transparence significative au sujet des pratiques de modération du contenu et d’application de la loi. « Toutefois, ajoute DigitalEurope, il sera important que les mesures de transparence du DSA garantissent que la vie privée des utilisateurs est protégée, que les mauvais acteurs ne peuvent pas manipuler le système et que les renseignements commerciaux sensibles ne sont pas divulgués » (6).
Les intermédiaires de l’écosystème numérique, à savoir les plateformes en ligne que sont les réseaux sociaux et les places de marché, devront prendre des mesures pour protéger leurs utilisateurs contre les contenus, les biens et les services illicites. Une procédure de notification et d’action plus claire permettra aux utilisateurs de signaler du contenu illicite en ligne et obligera les plateformes en ligne à réagir rapidement (les contenus cyberviolents comme le « revenge porn » seront retirés immédiatement). Et ces notifications devront être traitées de manière non-arbitraire et non-discriminatoire, tout en respectant les droits fondamentaux, notamment la liberté d’expression et la protection des données. Quant aux places de marché en ligne, elles seront plus responsables : les consommateurs pourront acheter des produits et services en ligne sûrs et non-illicites, « en renforçant les contrôles permettant de prouver que les informations fournies par les vendeurs sont fiables (principe de “connaissance du client”, (…) notamment via des contrôles aléatoires ».
En cas d’infraction à toutes ces obligations et bien d’autres, des pénalités pécuniaires sont prévues à l’encontre des plateformes en ligne et des moteurs de recherche qui pourront se voir infliger des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial. Concernant les très grandes plateformes (disposant de plus de 45 millions d’utilisateurs), la Commission européenne aura le pouvoir exclusif d’exiger le respect des règles. Algorithmes de recommandation, publicité en ligne, protection des mineurs, choix et désabonnement facilités, compensation des utilisateurs en cas d’infraction, … Une multitude de mesures en faveur du consommateur seront mises en place pour un Internet plus sûr.

Bruxelles dompte la Silicon Valley
Par exemple, les plateformes numériques qui utilisent des « systèmes de recommandation » – basés sur des algorithmes qui déterminent ce que les internautes voient à l’écran – devront fournir au moins une option qui ne soit pas fondée sur le profilage des utilisateurs. « Les très grandes plateformes devront évaluer et atténuer les risques systémiques et se soumettre à des audits indépendants chaque année », est-il en outre prévu (7). Malgré la distance de 8.894 km qui les séparent, Bruxelles et la Silicon Valley n’ont jamais été aussi proches. @

Charles de Laubier