Elections européennes : le numérique au programme

En fait. Le dimanche 9 juin, les Français élisent leurs 81 députés européens (dès le 8 juin pour certains territoires ultra-marins et Français de l’étranger). Il n’y a pas moins de 38 listes pour ces élections européennes. Edition Multimédi@ a sélectionné quelques mesures-phare pour le numérique, dont l’IA.

En clair. Nous nous sommes concentrés sur le « Top 5 » des listes arrivant en tête des sondages (1), en allant de la cinquième position à la première (2).
« Europe écologie » (Marie Toussaint) : « Lancer un Digital Green and Social Deal qui place les technologies numériques au service de la réalisation d’une vie décente pour tous·tes dans les limites de la planète » ; « Passer une nouvelle étape dans la réglementation des cryptomonnaies » ; « Encadrer les consommations des datacenters sur le sol européen » ; « Briser le monopole des GAFAM en Europe en garantissant l’interopérabilité des services numériques » ; « Taxer les GAFAM ».
« La France insoumise » (Manon Aubry) : « Réglementer les IA » ; « Garantir un euro numérique 100 % public » ; « Reprendre le contrôle sur les multinationales du numérique » ; « Inscrire la neutralité du Net dans la Charte des droits fondamentaux de l’Union européenne » ; « Renforcer la réglementation sur l’IA, en interdisant les identifications biométriques et les technologies répressives » ; « Encadrer l’usage de l’IA dans les secteurs culturels et créatifs notamment par la transparence des algorithmes » ; « Réguler les “coffres à butin” (loot box) en jeux d’argent ».

« Parti socialiste » (Raphaël Glucksmann) : « Créer un fonds souverain pour investir dans le numérique, en imposant des obligations de financement sur le territoire européen aux géants étrangers (les GAFAM et les BATX) […] et en poussant un accord international sur l’IA » ; « Lutter contre la fracture numérique » ; « S’assurer qu’un contrôle humain et une approche non-discriminatoire sont appliqués à l’ensemble des services numériques faisant appel à l’IA » ; « Multiplier par 10 le budget de l’Agence de cyberdéfense européenne ENISA ».
« Renaissance » (Valérie Hayer) : « Mettre en œuvre un plan Europe 2030 [notamment en] 5 ans pour des capacités de calcul de rang mondial, dont trois des cinq supercalculateurs parmi les plus puissants au monde » ; « Mieux protéger nos enfants avec la majorité numérique à 15 ans sur les réseaux sociaux et le contrôle parental par défaut sur les mobiles ».
« Rassemblement nationale » (Jordan Bardella) : « Revoir les règles de la concurrence européenne pour autoriser la concentration des acteurs et créer des champions européens du numérique » ; « Défendre la constitution d’un cloud souverain européen » ; « Créer un environnement complet en faveur de l’IA ». @

La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale

Annoncée par le Premier ministre le 15 mai 2024, la décision sans précédent de bloquer TikTok en Nouvelle-Calédonie est attaquée en justice par deux organisations et des Néo-Calédoniens. Le 21 mai, la haute juridiction administrative a donné 24h au gouvernement pour se justifier.

Louis Le Franc (photo de gauche) est le haut-commissaire de la République en Nouvelle-Calédonie. En tant que représentant de l’Etat français de cette collectivité sui generis (ni département d’outre-mer ni territoire d’outre-mer) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre Gabriel Attal (photo de droite)et chacun des ministres français, ce « préfet hors-classe » (le grade le plus élevé) a la charge des intérêts nationaux et assure la direction des services de l’Etat sur le territoire. Il est en outre préfet de la zone de défense de Nouvelle-Calédonie et Wallis-et-Futuna (1).

La liberté d’expression, victime collatérale
C’est à lui qu’est revenue la responsabilité de mettre à exécution l’interdiction de TikTok dans l’archipel secoué quelques jours à partir du 13 mai par des émeutes et des violences, lesquelles sont en lien avec une réforme constitutionnelle visant à élargir le corps électoral, projet contesté par les indépendantistes. Le censure du réseau social du chinois ByteDance (2) a été annoncée le 15 mai par le Premier ministre Gabriel Attal, le haut-commissaire Louis Le Franc ayant de son côté « instauré un couvre-feu et interdit TikTok ». Ce blocage, bien que la décision concernant le réseau social n’avait pas encore été formalisée par un texte – est effectif uniquement sur les smartphones (dixit le cabinet du Premier ministre), mis en œuvre par l’Office des postes et télécommunications de Nouvelle-Calédonie (OPT-NC). C’est d’autant plus facile que cet établissement public gère lui-même l’unique opérateur mobile de l’archipel, Mobilis.

Le locataire de Matignon a aussi indiqué que l’état d’urgence venait d’entrer en vigueur sur l’archipel calédonien par décret du 15 mai (3) et que l’armée était déployée « pour sécuriser » les ports et l’aéroport de Nouvelle-Calédonie. « TikTok a effectivement été interdit mercredi[15 mai] par le PM[Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise. L’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers [le ministre de l’Intérieur Gérald Darmanin accusant l’Azerbaïdjan, tandis que la Chine est suspectée, ndlr], et relayé par les émeutiers », a justifié le 16 mai le cabinet de Gabriel Attal, auprès de Numerama (4). Le lendemain, La Quadrature du Net et la Ligue des droits de l’homme ont déposé deux recours en référé distincts devant le Conseil d’Etat respectivement contre « un coup inédit et particulièrement grave à la liberté d’expression en ligne » (5) et pour « défendre la liberté de communication des idées et des opinions » (6). Tandis que trois NéoCalédoniens contestent aussi la légalité de la décision, d’après Libération (7). Le 21 mai, le juge des référés a donné 24 heures au gouvernement pour motiver le blocage de TikTok.
Le fondement juridique du décret « déclar[ant] l’état d’urgence sur l’ensemble du territoire de Nouvelle-Calédonie » réside dans la loi du 3 avril 1955 relative à l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (8). Déclaré en conseil des ministres pour une durée maximum de douze jours (9), l’état d’urgence ne pourra être prolongé que par une loi adoptée par le Parlement, conformément à l’article 2 de la loi de 1955. « Cette mesure est prise en raison de “circonstances exceptionnelles” », affirme en ligne Matignon, « au juge administratif de contrôler les mesures prises » (10).
Or il y a une différence de taille entre ce que prévoit cette loi « Etat d’urgence » en matière de « provocation à la commission d’actes de terrorisme ou en faisant l’apologie » et ce que dit le cabinet du Premier ministre en parlant de « diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ». Car entre incitation au terrorisme, d’une part, et diffusion de désinformation, d’autre part, il y a une grande nuance. « Aussi grave soit la situation, ce n’est *pas du tout* un motif prévu par la loi. Cette illégalité interroge », a commenté Nicolas Hervieu, professeur de droit public, sur X (ex-Twitter) le 16 mai (11). La veille, il avait déprimé des réserves sur le blocage de TikTok : « La légalité de cette décision de @Interieur_Gouv annoncée par @GabrielAttal est discutable. Car le lien avec le terrorisme est plus que douteux… » (12).

Bloquer TikTok en France est une première
Et Nicolas Hervieu d’enfoncer le clou : « Au passage, ce texte [le dernier alinéa de l’article 11 introduit dans la loi de 1955, ndlr] est né d’un amendement parlementaire inséré dans la loi du 20 novembre 2015 (laquelle a été votée en seulement deux jours). Avec uniquement “l’islamisme radical” et le “djihadisme” en ligne de mire… Il n’a jamais été contrôlé par le Conseil constitutionnel » (13). Ce professeur s’est aussi exprimé dans Le Figaro dans ce sens : « En somme, on permet au pouvoir administratif de limiter l’accès aux réseaux sociaux sur son interprétation du terrorisme. Une mesure qui interrogeait déjà en 2015, puisqu’il n’existe pas de réelle possibilité de la contester en tant que telle. […] sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte » (14). A l’évidence, selon ce juriste, les raisons du gouvernement français en Nouvelle-Calédonie justifiant la censure de TikTok n’entreraient pas dans la définition de « terrorisme » au sens strict du droit.

Le chinois veut discuter avec le gouvernement
« Est-ce que c’est de façon légale que le gouvernement recouru à ce dispositif ou est-ce que c’est un détournement de pouvoir ? Est-ce que c’est un usage excessif d’un dispositif qui n’avait été prévu que pour lutter contre le terrorisme au sens strict du terme et tout particulièrement le terrorisme islamiste ? », a-t-il encore interrogé, cette fois sur France Inter.
Il ne s’agit en aucun cas de minimiser les faits graves qui ont eu lieu en Nouvelle-Calédonie – notamment la mort de six personnes à déplorer. Cette interdiction de TikTok en France – tous territoires confondus – constitue cependant une première pour la République française. La filiale française du chinois ByteDance n’a pas tardé à réagir à son bannissement du « Caillou », appelé aussi « Kanaky ». « Il est regrettable qu’une décision administrative de suspension du service de TikTok ait été prise sur le territoire de la Nouvelle-Calédonie, sans aucune demande ou question, ni sollicitation de retrait de contenu, de la part des autorités locales ou du gouvernement français », a indiqué le 16 mai TikTok France sur France Inter et le 17 mai à Edition Multimédi@ par la voix d’un porte-parole, lequel a ajouté : « Nos équipes de sécurité surveillent très attentivement la situation et veillent à ce que notre plateforme soit sûre. Nous nous tenons à la disposition des autorités pour engager des discussions ». Chez TikTok France, le directeur des politiques publiques et relations gouvernementales n’est autre, depuis septembre 2020 (15), que Eric Garandeau (photo ci-dessus), ancien conseiller culturel du président de la République Nicolas Sarkozy puis PDG du CNC (16).
Le gouvernement français et le haut-commissaire de la République en Nouvelle-Calédonie ont-ils outrepassé leurs droits régaliens ? Que des émeutiers aient utilisé TikTok pour se coordonner sur l’archipel et appeler à la rébellion, cela ne fait apparemment aucun doute au regard de certains comptes jusqu’alors actif sur le réseau social des jeunes. Mais de là à considérer les protestataires et les violents comme des terroristes, il y un pas que la France a sans doute franchi un peu trop vite au détriment ne serait-ce que de la liberté d’expression. « Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter », souligne La Quadrature du Net.
Mais les avis divergent entre juristes sur la question. « S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique », estime pour sa part l’avocat pénaliste parisien et bloggeur « Maître Eolas », pseudonyme de Christian Pelletier, le 15 mai sur son compte X aux 370.000 abonnés (17). Et d’expliquer sur X : « Ce qui se passe en Nouvelle-Calédonie n’est pas (juste) de “grosses manifs”. Ce sont des émeutes violentes. Un gendarme a été tué [un deuxième est mort aussi par la suite, ndlr] et renseignez-vous sur ce qui s’est passé là-bas en 1985 et 1988 ». Rappelons que de l’Elysée le 4 juillet 2023, après les émeutes déclenchées par le meurtre du jeune Nahel, Emmanuel Macron avait lancé : « Quand les choses s’emballent pour un moment, […] on se met peut-être en situation de les […] couper ». Ce propos digne d’un régime autoritaire à la Corée du Nord, à l’Iran ou à la Chine avait provoqué un tollé. La loi « Sécuriser et réguler l’espace numérique » (SREN), elle, prévoit bien une mesure de « bannissement numérique » – dixit Elisabeth Borne alors Première ministre (18) – consistant sur décision du juge à suspendre six mois (un an en cas de récidive) le compte en ligne d’un individu condamné pour des délits sur la plateforme numérique (ou réseau social) en question (19).

DSA : la Nouvelle-Calédonie pas concernée
Bien que la régulation des très grandes plateformes numériques (VLOP) relève désormais dans l’Union européenne (UE) du Digital Services Act (DSA), avec ses garde-fous en cas de blocage demandé par un Etat membre (Commission européenne, l’« Arcom » nationale et un juge), elle n’est pas applicable à TikTok en Nouvelle-Calédonie. « [Bloquer TikTok est] envisageable (en théorie) sur toute portion du territoire non soumise au droit de l’UE. [Mais] inopérante sur toute autre partie soumise au droit de l’UE, les services de la Commission européenne estimant que des troubles à l’ordre public dans un seul Etat ne peuvent fonder blocage de VLOP », a expliqué le 15 mai sur X l’avocat Alexandre Archambault (20), ancien directeur des affaires réglementaires de Free. @

Charles de Laubier

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @

Europe : Nextory diversifie la lecture en streaming

En fait. Le 25 avril, la plateforme suédoise de lecture en streaming Nextory (ex-Youboox en France) a annoncé un nouvel accord avec la filiale française du groupe d’édition américain HarperCollins. Le catalogues de titres francophones s’étoffe, que ce soit en ebooks ou en audiobooks.

En clair. Après la Suède, la Finlande, l’Allemagne, les PaysBas et l’Espagne, voici que le groupe américain d’édition HarperCollins Publishers (filiale du groupe News Corp) – revendiquant la deuxième place mondiale des éditeurs de livres grand public – vient de mettre encore plus de livres numériques et de livres audio francophones sur la plateforme suédoise Nextory (ex-Youboox en France).
Il n’est pas le premier. De grands groupes français de l’édition, tels que Hachette, Editis, Média-Participations ou encore Madrigall (Gallimard, Flammarion et Casterman), se sont déjà lancés dans la lecture en streaming avec Nextory. Au total, la plateforme suédoise créée en 2015 à Stockholm compte à ce jour quelque 1.500 éditeurs francophones (400.000 titres), auxquels se joint maintenant HarperCollins France. Le catalogue européen proposé ainsi en streaming – à partir de 9,99 euros par mois – est riche de 1 million de titres disponibles « en illimité » (1), où l’on trouve aussi bien des livres numériques que des livres audio, mais aussi des BD et des journaux en ligne. Nextory, qui entend « remettre en question ce que signifie “lire un livre” » (2), a absorbé en octobre 2021 la start-up française Youboox fondée dix ans plus tôt par Hélène Mérillon (3), aujourd’hui PDG de Nextory France et chargée des contenus au niveau du groupe suédois. Elle fut aux avant-postes lorsque la question de la conformité de la lecture en streaming en accès illimité par abonnement a été posée en France au regard de la loi du 26 mai 2011 sur le prix du livre numérique.

La Médiatrice du livre à l’époque, Laurence Engel, avait finalement émis un avis, le 9 février 2015, favorable à ces plateformes de lecture par abonnement à condition que « le prix des livres numériques soit fixé par les éditeurs » (4).
Nextory a face à lui le géant du e-commerce Amazon qui propose la plateforme Kindle Unlimited, ainsi qu’Apple avec son Apple Books. La plateforme française YouScribe, très présente en Afrique francophone, est aussi un de ses concurrents. Le suédois Spotify et le français Deezer, présents dans le streaming musical, sont aussi ses rivaux sur le segment des livres audio. Quant au suédois Storytel, coté au Nasdaq de Stockholm et acquéreur en 2021 Audiobooks.com au fonds américain KKR, il est aussi très actif sur le marché international des livres audio. @

La lourde responsabilité de la « Cnil » irlandaise

En fait. Le 23 avril, la présidente de la Cnil a annoncé sur Franceinfo qu’elle va « saisir de façon officielle la “Cnil” irlandaise [la DPC] sur les conditions de collecte et d’exploitation des données sur cette application TikTok Lite ». Ou comment son homologue de Dublin est devenue centrale en Europe.

En clair. Cela va faire six ans, le 25 mai prochain, que la Data Protection Commission (DPC) – la « Cnil » irlandaise – est devenue la cheffe de file attitrée dans l’Union européenne (UE) pour veiller au respect du règlement général sur la protection des données personnelles (RGPD) par les principaux géants du Net. C’est en effet le 25 mai 2018 que ce dernier est entré en vigueur dans les Vingt-sept (1).
Et pour cause : les Gafam (Google/YouTube, Apple, Meta/Facebook, Amazon et Microsoft/LinkedIn) ainsi que TikTok, Twitter, eBay, Airbnb, PayPal ou encore Netflix ont choisi d’installer leur siège européen en Irlande, la plupart dans la capitale irlandaise Dublin (2). Car ce petit pays membre de l’UE est l’un des mieux disant au monde en matière de fiscalité, tant en termes d’impôt sur les sociétés (12,5 % sur les bénéfices et même seulement 6,25 % sur les revenus des brevets) que de crédit d’impôt recherche et développement (R&D) pouvant aller jusqu’à 37,5 %. Résultat, faute d’harmonisation fiscale en Europe : les Big Tech, notamment américaines, se bousculent au portillon irlandais. En conséquence, depuis l’entrée en vigueur du RGPD, la Data Protection Commission (DPC) est devenue la « Cnil » européenne la plus sollicitée en matière de protection des données personnelles et de la vie privée.

Car, conformément au RGPD, la DPC est depuis près de six ans la principale « autorité de contrôle chef de file » (lead supervisory authority) en la matière (3), étant donné que la plupart des QG des géants du numérique sont en Irlande. C’est le cas de la société TikTok Technology Limited, filiale irlandaise du chinois ByteDance. La DPC lui a déjà infligé en septembre 2023 une amende de 345 millions d’euros pour violation du RGPD (4). Meta Platforms Ireland Limited (anciennement Facebook) a aussi été sanctionné en mai 2023 par la DPC à hauteur de 1,2 milliard d’euros pour Facebook (5), de 405 millions d’euros pour Instagram et de 225 millions d’euros pour WhatsApp. Amazon a dû aussi payer 746 millions d’euros en 2021.
Mais la « Cnil » irlandaise est-elle suffisamment sévère avec les Gafam qui rapportent gros à son pays ? C’est en creux ce que se demandent certaines autres « Cnil » européennes ainsi que le Conseil irlandais des libertés civiles (ICCL), ce dernier estimant que la DPC n’enquête pas assez sur notamment Google. La Haute cour d’Irlande a été saisie l’an dernier. @