Les opérateurs télécoms préparent la fin des box

En fait. Depuis le 8 mai, SFR propose son application SFR TV sur les téléviseurs connectés Hisense. De son côté, Free a lancé le 23 avril son application Oqee sur les télé connectées LG. Orange, lui, expérimente depuis le 25 avril la « Smart TV d’Orange ». Bouygues Telecom s’y met. Samsung est aussi de la partie.

En clair. Les box TV des fournisseurs d’accès à Internet (FAI) sont en passe d’être dématérialisées. Cela fait des années que la perspective de la « virtualisation des box » est évoquée. L’ancien patron d’Orange, Stéphane Richard, avait préparé les esprits dès 2017 à la disparition future de la Livebox, qui sera remplacée chez l’abonné par un routeur plus discret avec toutes les autres fonctions – dont l’audiovisuel – déportées sur le réseau intelligent de l’opérateur télécoms (1). Mais cette fois, le phénomène s’accélère en France.

Après avoir installé son application SFR TV sur les téléviseurs connectés du sud-coréen Samsung (ou sur son projecteur Freestyle), voici que la filiale télécoms du groupe Altice fait de même avec la fabricant chinois Hisense – depuis le 8 mai selon Univers Freebox et Numerama. Mais SFR fait les choses à moitié puisque la box TV ne disparaît pas (encore) pour autant puisqu’elle reste nécessaire (dans le salon par exemple). L’option « Multi TV » (5 euros par mois) permet, elle, de regarder ailleurs la télé avec l’appli SFR TV (dans une chambre), mais sans seconde box TV (2). L’application Oqee TV de Free a aussi vocation à être téléchargeable sur les Smart TV fonctionnant sous Android TV (3), à savoir les téléviseurs de Samsung, LG depuis le 23 avril (une première en France pour ce fabricant sudcoréen), Sony ou encore bientôt Hisense. De son côté, Orange s’apprête à sortir de son labo l’application « Smart TV d’Orange » qui – déjà en phase de test (4) – fonctionnera sur les téléviseurs connectés, non seulement sous Android TV mais aussi Apple TV. Bouygues Telecom, lui, pousse son application B.tv+ téléchargeable sur Google Play et l’App Store (5).
Ainsi, discrètement, la virtualisation des box est en marche, à commencer par le boîtier TV. En France, comme le souligne l’Observatoire de l’équipement audiovisuel des foyers publié le 25 avril par l’Arcom sur une étude de Médiamétrie, « la Smart TV connectée [directement sans passer par un décodeur TV d’un FAI, ndlr] est désormais utilisée par plus de la moitié des foyers équipés d’une TV connectée (53,2 %, + 4,2 points en un an) ». Même si, pour l’instant, le décodeur TV d’un FAI demeure le premier mode de connexion du téléviseur (83,7 % des foyers équipés TV connectée). Quant à la 5G, notamment la 5G standalone plus performante (6), elle devrait accélérer la disparition des décodeurs TV. La clé B.tv est un premier pas. @

 

TikTok menacé d’être banni des Etats-Unis et d’Europe, sa maison mère chinoise ByteDance contre-attaque

Alors que Joe Biden aux Etats-Unis et Ursula von der Leyen en Europe rêvent d’évincer de leur marché respectif TikTok, le réseau social des jeunes, sous des prétextes de « sécurité nationale » (le syndrome « Huawei »), sa maison mère chinoise ByteDance compte bien se battre pour obtenir justice.

(le 14 mai 2024, dans le cadre de l’état d’urgence décrété le 15 mai en Nouvelle-Calédonie, le Premier ministre français Gabriel Attal a annoncé l’interdiction de TikTok dans cet archipel franco-kanak d’Océanie, mesure sans précédent pour des raisons, selon le gouvernement, de « terrorisme ») 

Aux Etats-Unis, Joe Biden a signé le 24 avril la loi obligeant le groupe chinois ByteDance de se séparer de sa filiale américaine TikTok « sous 270 jours » (neuf mois), soit d’ici février 2025. Le chinois a saisi le 7 mai la justice pour demander la révision de ce « Ban Act » qu’il juge inconstitutionnelle. Au Congrès américain, la Chambre des représentants et le Sénat avaient adopté cette loi respectivement le 13 mars et le 23 avril. Le président des Etats-Unis avait aussitôt déclaré qu’il signerait cette loi (1).
En Europe, Ursula von der Leyen a déclaré le 29 avril que « n’est pas exclu » le bannissement de TikTok de l’Union européenne. La présidente de la Commission européenne a lancé sa menace de Maastricht lors d’un débat de candidats à l’élection européenne coorganisé par le journal Politico, après qu’un modérateur ait fait référence au sort réservé à TikTok aux Etats-Unis si la firme de Haidian (nord-ouest de Pékin) ne vendait sa filiale américaine. Le réseau social des jeunes férus de vidéos courtes et musicales est donc frappé du syndrome « Huawei » – géant chinois des équipements télécoms déjà mis à l’écart par des pays occidentaux sous les mêmes prétextes de « risque pour la sécurité nationale » (2) et d’accusation sans preuves de « cyber espionnage » (3). Déjà, Washington (depuis décembre 2022) et Bruxelles (depuis février 2023) ont interdit à leurs employés et fonctionnaires d’utiliser TikTok sur leurs smartphones professionnels.

Etats-Unis+Europe : 300 millions de tiktokeurs
L’application TikTok, lancée à l’automne 2016 et boostée par l’absorption en août 2018 de sa rivale Musical.ly rachetée par ByteDance en novembre 2017, dépasse aujourd’hui la barre des 1,5 milliard d’utilisateurs dans le monde, dont 170 millions aux Etats-Unis et 135 millions en Europe. TikTok est devenu en sept ans d’existence le cinquième plus grand réseau social au monde, derrière Facebook (3 milliards d’utilisateurs), YouTube (2,5 milliards), WhatsApp (2 milliards) et Instagram (2 milliards). S’il devait être banni des Etats-Unis et d’Europe, son audience chuterait de 305 millions de tiktokeurs au total – soit une perte de près de 20 % de sa fréquentation. Le chiffre d’affaires en serait sérieusement entamé pour sa maison mère ByteDance, cofondée en 2012 par Zhang Yiming, avec Liang Rubo (leurs photos en Une) devenu PDG fin 2021 (le premier se consacrant à la « stratégie à long terme »).

Le « Ban Act » serait inconstitutionnel
Comme elle n’est pas cotée en Bourse, cette super-licorne – valorisée jusqu’à 225 milliards de dollars (4) grâce à de multiples levées de fonds (Sequoia Capital, KKR, SoftBank, General Atlantic, SIG Asia Investment, TigerGlobal, Source Code Capital et Coatue) – ne publie pas ses résultats financiers. Mais elle aurait vu son chiffre d’affaires mondial bondir de 50 % en 2023, à près de 120 milliards de dollars, d’après les informations de l’agence Bloomberg le 10 avril (5). Sa rentabilité aurait elle aussi explosé de 60 % pour atteindre les 40 milliards de dollars. Pour la première fois, tant en revenu qu’en bénéfice, ByteDance aurait dépassé ses compatriotes Tencent et Alibaba, grâce non seulement à TikTok mais aussi à TikTok Music (ex-Resso), TikTok Shop (plateforme de ecommerce), Douyin (ex-A.me, équivalent de TikTok en Chine), CapCut (ex-JianYing, application de montage vidéos courtes), Ulike (retouche de selfies), Toutiao (site chinois d’actualités et de contenus), ou encore Lark (plateforme collaborative d’entreprise). La firme de Haidian, domiciliée avantageusement dans le paradis fiscal des Îles Caïmans (Antilles), revendique « plus de 150.000 employés répartis dans près de 120 villes à travers le monde, dont Austin, Barcelone, Pékin, Berlin, Dubaï, Dublin, Hong Kong, Jakarta, Londres, Los Angeles, New York, Paris, Seattle, Séoul, Shanghai, Shenzhen, Singapour et Tokyo ». Les vidéos de TikTok sont courtes mais le réseau social musical a le bras long.
Face à l’adversité occidentale, au premier rang de laquelle figurent les Etats-Unis qui dans sa nouvelle loi désignent TikTok comme une « application contrôlée par un adversaire étranger » (foreign adversary controlled application), ByteDance – mentionnée nommément dans la loi ainsi que sa filiale américaine – ne compte pas se laisser faire. Le groupe des Chinois Zhang Yiming et Liang Rubo – tous deux anciens camarades d’université – a déjà gagné du temps dans la mesure où le projet de loi « anti-ByteDance » initial prévoyait un délai de seulement six mois – jugé alors trop court aux yeux de certains juristes – pour vendre TikTok, au lieu de finalement neuf. Et le prochain président des Etats-Unis, dont l’investiture est prévue le 20 janvier 2025, pourra prolonger de trois mois l’échéance dans le cas d’une cession en cours. La loi prévoit même que TikTok Inc (la filiale américaine) doit couper tous liens avec l’Empire du Milieu, « y compris toute coopération relative au fonctionnement d’un algorithme de recommandation de contenu ou d’un accord relatif au partage de données ». Les algorithmes de TikTok Inc feraient partie de la liste des technologies chinoises qui devraient être approuvées par Pékin avant d’être exportées. La bataille techno-géopolitique sino-américaine déjà exacerbée avec Huawei s’intensifie. Treize jour après la promulgation du « Ban Act », la firme de Haidian a contre-attaqué en déposant le 7 mai – devant la cour d’appel du district de Columbia Circuit – une demande de révision de cette loi « anti-TikTok » estimée contraire à la Constitution des Etats-Unis, notamment à son Premier amendement consacrant la liberté d’expression. Dans sa requête de 77 pages (6), TikTok Inc et ByteDance Ltd (la maison mère), pointent l’absence de preuves sur d’« hypothétiques » menaces pour la « sécurité nationale ».
Ce n’est pas la première fois que ByteDance a recours au tribunal du district de Columbia Circuit, puisqu’en novembre 2020 la maison mère de TikTok y avait contesté un projet de décret du président des Etats-Unis, à l’époque Donald Trump, prévoyant déjà d’obliger le chinois à céder TikTok sur le sol américain sous peine de l’interdire. Dans cette éventualité, une future société américaine, baptisée TikTok Global, avait même été envisagée, avec des investisseurs tels qu’Oracle (7) et Walmart. Mais une fois arrivé au pouvoir, Joe Biden avait fait annuler en juin 2021 les décrets « Trump » visant TikTok mais aussi WeChat de Tencent. La menace d’interdiction de ByteDance est venue cette fois non pas d’une « Executive Order » de la Maison-Blanche mais d’une « Ban Bill » du Congrès américain.
« Soyez assurés, nous n’allons nulle part, a déclaré le 24 avril Shou Chew (Shou Zi Chew), le directeur général de TikTok, dans une vidéo postée sur le réseau social des jeunes (8). Nous sommes confiants et nous continuerons de nous battre pour vos droits devant les tribunaux ». ByteDance espère obtenir une injonction préliminaire du tribunal de Columbia pour annuler le processus de vente forcée de TikTok Inc qui, selon le chinois, serait une atteinte aux droits à la liberté d’expression de ses utilisateurs américains et une violation du Premier amendement. « Heureusement, nous avons une Constitution dans ce pays, et les droits du Premier amendement sont très importants », a déclaré confiant Michael Beckerman, viceprésident en charge des affaires publiques de TikTok aux Etats-Unis, interviewé par une tiktokeuse le 17 avril (9).

Deux « procédures formelles » lancées par l’UE
En Europe, les tiktokeurs ont aussi de quoi s’inquiéter, depuis que la Commission « von der Leyen » (en fin de mandat) a ouvert deux « procédures formelles » à l’encontre de TikTok dans le cadre du DSA (10), tout en poussant ByteDance à suspendre « volontairement » fin avril dans l’UE son service controversé de récompenses TikTok Lite (11). Quant à Ursula von der Leyen, candidate à sa propre succession à Bruxelles, elle a décidé de ne pas utiliser TikTok (12) pour s’adresser aux jeunes durant sa campagne aux élections européennes de juin. Ironie de l’histoire, elle était présente au dîner du 6 mai à l’Elysée (13) en l’honneur du président chinois Xi Jinping (photo ci-dessus), lequel était en visite d’Etat de deux jours en France auprès d’Emmanuel Macron. @

Charles de Laubier

Acteurs de l’IA, la Cnil vous adresse ses premières recommandations : à vous de jouer !

La Commission nationale de l’informatique et des libertés (Cnil) a publié le 8 avril 2024 sept premières fiches « pour un usage de l’IA respectueux des données personnelles ». D’autres sont à venir. Ces règles du jeu, complexes, sont les bienvenues pour être en phase avec le RGPD et l’AI Act. Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats L’intelligence artificielle (IA) conduit à questionner de manière plus exigeante et approfondie la protection des données personnelles. Les principes fondateurs du RGPD (1) doivent non seulement être pleinement rappelés et appliqués, mais ils doivent même l’être de manière plus dynamique et exigeante. Un exemple : des données qui auraient précédemment pu être considérées pseudonymisées ou même anonymisées, pourront faire l’objet de calculs et de recoupements massifs, qui pourraient aboutir à identifier à nouveau les personnes, grâce à l’utilisation de l’IA. Sept premières fiches pratiques L’entraînement des IA appelle des données personnelles comme l’image et la voix des personnes, d’une quantité sidérale sans précédent. Il appartient aux entreprises et organisations nationales et internationales de procéder à la mise en conformité avec l’AI Act, lequel a été adopté 13 mars 2024 par le Parlement européen (2). Parallèlement et le même jour en France, la commission de l’IA – installée depuis septembre 2023 auprès du Premier ministre – a remis au président de la République son rapport (3) qui recommande notamment un assouplissement des contraintes liées à l’utilisation, par l’IA, de données personnelles. Cette commission IA appelle à « transformer notre approche de la donnée personnelle pour protéger tout en facilitant l’innovation au service de nos besoins ». Le 8 avril 2024, c’était au tour de la Cnil de publier des fiches pratiques consacrées à la phase de développement des systèmes d’IA. L’autorité administrative indépendante accompagne les acteurs de l’IA depuis deux ans déjà, comme elle ne manque pas de le rappeler dans son dernier rapport annuel (4), à travers notamment la création d’un service dédié, la publication de ressources et webinaires, ainsi que l’établissement d’une feuille de route articulée autour de quatre piliers : appréhender, guider, fédérer et accompagner, auditer. Ces recommandations font suite à la consultation publique entreprise en octobre 2023, laquelle a réuni une quarantaine de contributions d’acteurs divers (5). Afin de présenter ces fiches pratiques (6), un webinaire a été organisé par la Cnil le 23 avril dernier. L’occasion pour celle-ci d’apporter ses derniers éclairages. Concernant le périmètre d’application, il convient premièrement de préciser que ces fiches pratiques n’ont vocation à s’intéresser qu’à la phase de développement de systèmes d’IA (conception de base de données, entraînement, apprentissage) impliquant un traitement de données personnelles pour les cas d’usage pour lesquels le RGPD est applicable (7). Celles-ci n’ont donc pas vocation à régir la phase dite de « déploiement » d’un système d’IA. Retenant la même définition des « systèmes d’IA » que l’AI Act, sont notamment concernés par ces recommandations : les systèmes fondés sur l’apprentissage automatique, ceux fondés sur la logique et les connaissances (moteurs d’inférence, bases de connaissance, systèmes experts, …), ou encore les systèmes hybrides. Afin d’aider les professionnels dans leur mise en conformité, la Cnil a défini, à travers sept fiches de recommandations, les bonnes pratiques à respecter sans que celles-ci soient toutefois contraignantes. Ces recommandations tiennent compte des dispositions de l’AI Act et ont vocation à les compléter. La Cnil profite de ces lignes directrices pour rappeler les principes fondamentaux (licéité, transparence, minimisation, exactitude, limitation de conservation des données, …) et obligations majeures découlant du RGPD inhérentes à tout traitement, en les précisant et les adaptant au mieux à l’objet traité : les systèmes d’IA. Si les recommandations qui suivent concernent majoritairement les responsables de traitement, les sous-traitants ne sont pas délaissés, repartant également avec leur lot de bonnes pratiques. Peuvent à ce titre être cités : un respect strict des instructions du responsable de traitement, la conclusion d’un contrat de sous-traitance conforme à la réglementation en matière de données personnelles ou encore, l’obligation de s’assurer de la sécurité des données sous-traitées (8). Apports majeurs des recommandations Prenez soin de définir une finalité déterminée, explicite et légitime pour le traitement projeté. Deux situations sont clairement distinguées par la Cnil, selon que l’usage opérationnel en phase de déploiement du système d’IA est d’ores et déjà identifié, ou non, dès la phase de développement. Dans la première hypothèse, il est considéré que la finalité en phase de développement suivra celle poursuivie en phase de déploiement. De sorte que si celle-ci est suffisamment déterminée, explicite et légitime, alors la finalité en phase de développement le sera également. Dans la seconde hypothèse, et notamment en présence de systèmes d’IA à usage général, la Cnil insiste sur la nécessité de prévoir une finalité « conforme et détaillée ». Elle livre des exemples de finalités qu’elle considère, ou non conformes, précisant à ce titre que le simple « développement d’une IA générative » n’est pas une finalité conforme car jugée trop large et imprécise. Finalité conforme et responsabilités précises La méthode à suivre est alors révélée : une finalité ne sera conforme que si elle se réfère « cumulativement au“type” du système développé et aux fonctionnalités et capacités techniquement envisageables » (9). Le secteur de la recherche n’est bien sûr pas oublié. Une tolérance dans le degré de précision de l’objectif ou encore dans la spécification des finalités est évoquée, sans laisser de côté les éventuelles dérogations ou aménagements applicables. Déterminez votre rôle et vos responsabilités : suis-je responsable de traitement, sous-traitant, ou encore responsableconjoint ? Le développement d’un système d’IA peut nécessiter l’intervention de plusieurs acteurs. Dès lors, identifier son rôle au sens du RGPD peut être parfois délicat et les éclairages de la Cnil sur la question sont les bienvenus. Pour rappel, le responsable de traitement est « la personne […] qui, seul ou conjointement détermine les objectifs et moyens du traitement » (10). Cette qualité emporte son lot d’obligations et de responsabilités, d’où la nécessité de la déterminer avec précision. Les acteurs pourront se référer à la fiche donnant des exemples d’analyse permettant d’identifier son rôle au cas par cas (11). Effectuez un traitement licite et respectueux des principes fondamentaux. Un rappel des principes à respecter pour tout traitement ne mange pas de pain mais épargne bien des soucis en cas de contrôle. La Cnil s’attarde notamment sur l’obligation de choisir, parmi celles prévues par le RGPD, la base légale la plus adéquate au traitement projeté. Pour le développement de systèmes d’IA, elle explore cinq bases légales envisageables (12) : le consentement, l’intérêt légitime, l’obligation légale, la mission d’intérêt public ou encore le contrat. En cas de réutilisation de données, des vérifications seront à mener et, là encore, les recommandations de la Cnil différent selon l’hypothèse rencontrée et notamment en fonction de la source desdites données (données publiquement accessibles ou collectées par des tiers, …). A titre d’exemple, pour une réutilisation de données collectées par le fournisseur lui-même pour une finalité initiale différente, la Cnil impose, sous certaines conditions, un « test de comptabilité » (13) permettant de s’assurer que la finalité poursuivie est compatible avec la finalité initiale, et rappelle les obligations de fonder son traitement ultérieur sur une base légale valable sans oublier la nécessité d’informer les personnes concernées. Par ailleurs, la Cnil révèle les cas possibles de réutilisation de données collectées par des tiers, ainsi que les obligations qui incombent au tiers et ainsi qu’au réutilisateur de ces données. Respectez les principes fondamentaux. Le gendarme des données insiste également sur la nécessité de respecter les principes fondamentaux. Ce respect doit s’imposer à tout stade du développement d’un système d’IA, dès sa conception « privacy by design » (14), mais également lors de la collecte et de la gestion des données (15). La Cnil s’attarde particulièrement sur le principe de minimisation, lequel impose de ne traiter que les données « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités » (16) déterminées. Si la Cnil s’attache à soutenir que le respect de ce principe « n’empêche pas l’utilisation de larges bases de données » (17) et notamment de données publiquement accessibles (18), il implique nécessairement pour un responsable de traitement de repenser l’entraînement et la conception de ses systèmes d’IA en se posant concrètement les questions suivantes : « Les données utilisées et/ou collectées sont-elles vraiment utiles au développement du système souhaité ? Ma sélection est-elle pertinente ? Pourrais-je mettre en place une méthode à suivre plus respectueuse des droits et libertés des personnes concernées ? Si oui, par quels moyens techniques ? ». A titre de bonnes pratiques, la Cnil recommande d’ailleurs d’associer au développement du projet un comité éthique et de mener une étude pilote afin de s’assurer de la pertinence de ses choix en matière de conception d’un système d’IA (19). Par ailleurs et conformément au principe de limitation des données de conservation (20), les durées de conservation des données utilisées seront à déterminer préalablement au développement du système d’IA. La Cnil appelle, à ce titre, à consulter son guide pratique sur les durées de conservation (21). Ces durées devront faire l’objet de suivi, de sorte que les données qui ne seront plus nécessaires devront être supprimées. Le respect de ce principe ne s’oppose pas à ce que, sous certaines conditions, des données soient conservées pour des durées plus longues, notamment à des fins de maintenance ou d’amélioration du produit. Analyse d’impact (AIPD) nécessaire Enfin, réalisez une analyse d’impact quand c’est nécessaire. L’analyse d’impact sur la protection des données (AIPD) permet d’évaluer et de recenser les risques d’un traitement en vue d’établir un plan d’action permettant de les réduire. Cette analyse AIPD (22) est, selon les cas, obligatoire ou bien fortement recommandée. A la lumière de la doctrine de la Cnil et de l’AI Act, les entreprises et organisations doivent à présent mettre en place leur mise en conformité, avec des points très réguliers. @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la propriété intellectuelle, des médias et des technologies.

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @

Alors que la 5G peine à remplacer la 4G, la 5G-Advanced sera déployée à partir de fin 2024

Dans le monde, sur l’ensemble des connexions mobiles, la 5G ne dépasse pas encore les 20 %. En France, les abonnés 5G représentent encore seulement 17 % du parc de cartes SIM. Mais déjà se profile la 5G-Advanced que certains opérateurs mobiles déploieront à partir de fin 2024, en attendant la 6G.

Lentement mais sûrement. Au 31 décembre 2023, la France comptait 72,6 millions de cartes SIM actives sur les réseaux 4G et 5G (1). En réalité, la 4G continue de dominer face à la 5G qui peine toujours à se généraliser : elle ne représente que 17 % des abonnés mobiles, soit 14 millions de cartes SIM 5G activées, d’après l’Arcep, bien loin des 72,6 millions de cartes 4G. Au niveau mondial, ce n’est guère mieux puisque la 5G ne génère que 18 % des connexions mobiles, d’après la GSMA, l’association internationale des opérateurs mobiles.

2 milliards d’abonnés 5G fin 2024
Sur 5,6 milliards d’utilisateurs de mobiles, 4,7 milliards ont accès à Internet, dont seulement 1,6 milliard via la 5G. Selon l’équipementier télécoms suédois Ericsson (2), la barre des 2 milliards d’abonnés 5G sera franchie fin 2024. Pourtant, cette cinquième génération de mobile a été lancée pour la première fois il y a cinq ans (en 2019 en Corée du Sud). Un échec à l’allumage ? Certes, la croissance de la 5G reste prometteuse et devrait s’imposer plus rapidement que la 4G ne l’avait fait après son lancement en 2009. Rien qu’en France, toujours selon les chiffres de l’Arcep au 31 décembre 2023, le nombre de cartes SIM activées sur les réseaux 5G – notamment d’Orange, de Bouygues Telecom, de Free et de SFR – progresse à un rythme soutenu : + 15,7 % au dernier trimestre de l’an dernier et + 64,7 % sur un an grâce à respectivement 1,8 million et 5 millions de cartes SIM 5G supplémentaires (voir graphique ci-dessous).

Au niveau mondial, la GSMA – dirigée par Mats Granryd (photo) – s’attend à ce que l’utilisation de la 5G bondisse d’ici la fin de la décennie en cours (2030) pour représenter 56 % des connexions mobiles, contre les 18 % de 2023. Autrement dit, il y a aura 5,5 milliards de connexions 5G en 2030, contre 1,6 milliard en 2023. Et c’est en 2028 que les connexions 5G devraient dépasser dans le monde celles de la 4G (voir graphique). La montée en charge relativement lente de la 5G peut s’expliquer par au moins trois raisons : il y a l’équipement progressif des mobinautes en smartphones compatibles 5G, dont les prix constituent un frein dans le renouvellement du parc ; les forfaits mobiles proposés par les opérateurs mobiles sont eux aussi coûteux en raison de capacités de consommation de données plus importantes ; la 5G proposée par la plupart des opérateurs mobiles est encore de la « fausse 5G » bâtie sur les réseaux 4G existants aux fréquences non optimales (3). Dans le monde, à janvier 2024, la GSMA recense 261 opérateurs mobiles dans 101 pays qui ont lancé commercialement des services mobiles 5G. Ils devraient être rejoints, dans les prochaines années, par 90 opérateurs mobiles supplémentaires dans 64 autres pays (4). De son côté, l’équipementier télécoms suédois Ericsson recense un plus grand nombre d’opérateurs mobiles commercialisant, à début 2024, la 5G : 290 réseaux en tout. D’ici la fin de la décennie, la 5G devrait l’emporter en remplacement de la 4G, qui continuera à décliner progressivement. « Le nombre de connexions sur les réseaux historiques 2G et 3G continuera de diminuer dans les années à venir, à mesure que les utilisateurs migreront vers la 4G et la 5G, entraînant un nombre croissant de “couchers de soleil” sur les réseaux », prévoit la GSMA. Ainsi, d’ici 2030, pas moins de 143 réseaux 2G et 3G disparaîtront dans le monde, « dont environ la moitié d’ici la fin 2024 ».

5G standalone et 5G-Advanced
A l’instar de la fibre à domicile (FTTH) auxquels les utilisateurs ont mis du temps à s’abonner en raison de la qualité satisfaisante de l’ADSL/VDSL sur lignes de cuivres, la 5G met aussi du temps à convaincre les abonnés mobiles qui se contentent encore de la qualité 4G tout à fait acceptable. D’autant que la plupart des réseaux 5G actuels n’offrent pas une « vraie 5G » que seuls peuvent apporter les réseaux 5G dits « standalone » (ou « 5G autonome »), à savoir des infrastructures mobiles conçues de bout-en-bout pour la 5G et ne s’appuyant pas sur des réseaux 4G préexistants. Résultat : les performances sont accrues en termes de débit, offrant ainsi de la « vraie 5G ». Selon la GSMA, à janvier 2024, ils étaient moins de 50 opérateurs mobiles (47 précisément) à avoir déployé un réseau 5G standalone. En France, Bouygues Telecom a débuté le 21 février dernier (5) la commercialisation de réseaux privés pour entreprises basés sur un réseau 5G standalone équipé par Ericsson. De son côté, Orange s’apprête à commercialiser cette année son offre 5G+, un réseau 5G standalone qui est équipé par le finlandais Nokia et qui sera d’abord proposé aussi aux entreprises. Quant à Free et SFR, ils testent encore le « SA » (pour standalone) avant le grand saut courant 2024.
Dans le monde, la montée en charge de la « vraie 5G » va coïncider avec l’arrivée d’ici la fin de l’année de la 5G-Advanced définie par l’organisme international de normalisation mobile 3GPP (6). Elle préfigurera ce que sera la 6G à partir de 2030 (7) et encore plus au cours de la prochaine décennie avec le basculement des fréquences de TNT vers les mobiles (8). La 5GAdvanced est basée sur la version 18 du 3GPP, laquelle sera entièrement finalisée d’ici juin prochain après avoir joué les prolongations (9), tandis les travaux sur la version 19 ont déjà commencé pour aboutir l’an prochain (10). La 5G-Advanced a même déjà son logo officiel (voir plus haut).

De la robotique industrielle aux métavers
La 5G-Advanced permettra aux opérateurs mobiles d’adapter la capacité de leurs réseaux mobiles et le temps de latence en fonction des usages plus ou moins dévoreurs de bande passante : véhicules autonomes, automatisation industrielle, métavers, réalité étendue (VR, AR, XR), IA générative, cartes 3D dynamiques du monde réel, jumeaux numériques, Internet des objets et de capteurs, interfaces de programmation d’applications (API), montres intelligentes, lunettes intelligentes et autres wereables. Selon la GSMA, le déploiement généralisé des réseaux 5G standalone en 2024 et 2025 devrait être suivi en 2026 par la première « grande vague » de déploiements 5GAdvanced (11). Les chinois Huawei et ZTE sont aux avant-postes, ainsi que le suédois Ericsson, le finlandais Nokia ou encore l’américain Qualcomm. @

Charles de Laubier