Pierre-François Racine, nouveau président du CSPLA, a déjà la tête dans les « nuages »

Les « nuages » s’amoncèlent au-dessus du Conseil supérieur de la propriété littéraire et artistique (CSPLA), dont Pierre-Français Racine vient d’être nommé président. Son projet d’avis sur « l’informatique en nuage » est contesté. La séance plénière
du 23 octobre s’annonce houleuse.

(Depuis la parution de cet article, le CSPLA a rendu son avis consultatif le 23 octobre 2012 et a adopté le rapport correspondant. La balle est dans le camp du gouvernement)

C’est un casse-tête. Réactivé il y a un peu plus d’un an maintenant, après trois ans de mise en sommeil, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) voudrait adopter lors de
sa prochain séance plénière du 23 octobre – qu’ouvrira la ministre Aurélie Filippetti – un projet d’avis sur « l’informatique en nuage » qui est vivement contesté par les opérateurs télécoms et les acteurs du Web. Mais, selon nos informations, le remplacement récent – par arrêté du 2 octobre – de Sylvie Hubac, devenue directrice de cabinet du chef de l’Etat, par Pierre-François Racine (notre photo), conseiller d’Etat,
à la présidence du CSPLA pourrait retarder l’adoption de cet avis qui est accompagné d’un rapport.

Apple, Amazon, Google, Orange, SFR, …
Que dit en substance l’avis du CSPLA ? « Les copies faites dans le cadre d’un service
de cloud computing ne peuvent bénéficier du régime de l’exception de copie privée et doivent donc faire obligatoirement l’objet – de la part des prestataires de ces “nuages informatiques” – de demandes préalables systématiques auprès des ayants droits ». Autrement dit : les Apple, Amazon, Google et autres Dropbox, ainsi que les centrales numériques des opérateurs télécoms Orange, SFR ou encore Bouygues Telecom (1), auraient une responsabilité nouvelle vis-à-vis des ayants droits. En effet, ces derniers
ne reconnaissent pas que les copies réalisées par un prestataire de cloud computing
et de stockage – pour le compte d’utilisateurs qui possèdent les fichiers d’œuvres – puissent entrer dans le cadre de l’exception de copie privée.
Si cet avis ne se prononce pas sur une taxe copie privée que les ayants droits souhaitent voir appliquée aux « nuages » (2), il tente en revanche de trancher une autre question tout aussi épineuse : celle du régime de l’exception de copie privée, laquelle autorise un utilisateur à faire des copies d’une oeuvre – musiques, films, journaux, radios, chaînes, livres, vidéos, photos, dessins, etc. – sans qu’il ait à demander l’autorisation aux ayants droits et/ou à payer en plus pour ces copies (3). Or, aux yeux des industries culturelles, il n’y a pas de « partage » – c’est-à-dire pas de « mise à disposition du public » (4) – mais uniquement du « stockage ». En conséquence, affirme le CSPLA, ceux qu’il appelle les « purs services de casier » ne peuvent bénéficier du statut d’hébergeur. Ce statut aménagé par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (loi dite LCEN) devrait en effet – revendiquent
les opérateurs télécoms et les plateformes du Web – leur accorder une responsabilité limitée en tant qu’hébergeurs, lesquels ne sont tenus responsables de piratage en ligne – et a fortiori des copies illicites – que si les contenus contrefaits leurs sont signalés par notification (5). Ainsi, les prestataires de nuages
– à l’instar des sites de partage vidéo comme YouTube ou Dailymotion (6) (*) (**)
– n’ont aucune obligation de contrôle préalable des contenus stockés chez eux et encore moins de filtrage ou de blocage généralisé des œuvres non autorisées. Contactée  par Edition Multimédi@, l’Association des services Internet communautaires (Asic)  – réunissant notamment Google, Microsoft, Yahoo, Dailymotion, Myspace, Spotify ou encore AOL – s’inscrit en faux contre l’avis du CSPLA : « Il n’entre pas dans cette mission du CSPLA de débattre à nouveau du statut des intermédiaires de l’Internet. L’interprétation adoptée par la commission [« Informatique en nuage »]
est totalement contraire aussi bien à l’esprit qu’à la lettre de la directive européenne “Commerce électronique” et même de la LCEN. Expliquer que les personnes qui stockent des fichiers pour le compte de tiers ne seraient pas des hébergeurs est, par définition même, une aberration », s’insurge Benoît Tabaka, secrétaire général de l’Asic et responsable des relations institutionnelles de Google France. L’Asic rejoint ainsi
la Fédération française des télécoms (FFT) qui, dans un courrier daté du 2 octobre adressé à l’avocat Jean Martin (président de la commission « nuage » du CSPLA) et révélé par notre confrère PC INpact (7), estime « extraordinaire » que cette instance juridique parapublique puisse remettre en cause le statut d’hébergeur.

La balle dans le camp d’Aurélie Filippetti
Le rapport et le projet d’avis, concoctés par la commission « Informatique en nuages », ont été transmis le 28 septembre à la cinquantaine de membres titulaires qui la composent (sans parler d’autant de suppléants…) pour recueillir leurs dernières remarques avant que le tout ne soit remis à la ministre de la Culture et de la Communication. @

Charles de Laubier

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.

Numericable a un réseau « limité » comparé au FTTH et à l’ADSL, en qualité de service et en débit montant

Eric Denoyer, président de Numericable, a fait le 12 avril dernier l’éloge de son réseau très haut débit qui mise encore sur le câble coaxial jusqu’à l’abonné
après la fibre. Mais une étude et un rapport pointent pourtant les faiblesses
de sa technologie FTTB par rapport au FTTH et même à l’ADSL.

Numericable, l’unique câblo-opérateur national issu de l’héritage historique du plan câble des années 80, n’a-t-il vraiment rien à envier à la fibre jusqu’à domicile (FTTH)
et encore moins à la paire de cuivre (ADSL), comme
l’affirme son président Eric Denoyer ? Interrogé par Edition Multimédi@ sur les performances de son réseau très haut débit, qu’un récent rapport commandité entre autres par l’Arcep (1) considère comme « limitées », il s’est inscrit en faux : « Nous avons certes des standards différents par rapport à nos concurrents, mais nous avons les mêmes capacités. Ce que nous offrons, c’est l’équivalent du FTTH avec la TV en plus. Grâce à la technologie ‘’channel bonding’’, nous obtenons les même caractéristiques que le FTTH d’Orange et de SFR utilisant la technologie GPON ». Le réseau de Numericable a en effet la particularité d’amener la fibre optique uniquement jusqu’aux bâtiments ou immeubles (FTTB), puis de raccorder chaque abonné en câble coaxial. Alors que le FTTH, lui, utilise de la fibre de bout en bout.
Si Numericable est capable de proposer du 100 Mbits/s vers l’abonné comme ses concurrents déployant de la fibre jusqu’à domicile, voire du 200 Mbits/s si la zone
du réseau câblé est éligible, une étude et un rapport affirment que le réseau du câbloopérateur présente des « limites » et des « inconvénients ».

Limite en « usage intensif et simultané »
Selon une étude sur le très haut débit (2) publiée en mars dernier et commanditée par l’Arcep, le Conseil supérieur de l’audiovisuel (CSA), le Centre national du cinéma et
de l’image animée (CNC) et le gouvernement (DGMIC, DGCIS), le câble présente bien des handicaps. L’étude réalisée par le cabinet Analysys Mason fait en effet le constat suivant : « Sur câble, le débit reste partagé entre un nombre restreint d’abonnés au niveau d’un équipement appelé nœud optique ou amplificateur. Cela implique qu’il n’est pas possible de contrôler aussi bien que sur une ligne dédiée (par exemple DSL ou FTTH) la qualité de service offert à chaque abonné (…). (…) Un usage intensif et simultané de la part de plusieurs utilisateurs peut fortement affecter le service fourni aux autres utilisateurs raccordés à un même nœud optique ».

Faible débit montant et asymétrie
En clair, Numericable peut rivaliser avec Orange, SFR ou Free dans le très haut débit
tant que son réseau câblé n’est pas « surchargé ». Pour l’instant, au 31 décembre 2011, Numericable compte 505.000 abonnés au très haut débit sur un nombre de 1.577.000 abonnés (les autres étant en TV seule ou en marque blanche via les box
de Bouygues Telecom, Auchan et Darty). Or plus Numericable comptera d’abonnés
très haut débit, plus son réseau fibro-câblé risquera d’être victime de goulets d’étranglement. D’autant que Numericable dispose actuellement d’un potentiel total actuel de 4,3 millions de foyers raccordables. Ce qui fait un taux d’abonnement global (TV seule, triple play+bouquets TV et marque blanche) de seulement 11,6 %. Eric Denoyer vise même les « 6 millions de foyers raccordables au très haut débit par la fibre optique à horizon 2014 » sur un potentiel total de 9 millions sur l’ensemble du réseau fibro-câblé national. Numericable a-t-il les yeux plus gros que le ventre ? Certes, le câbloopérateur peut néanmoins jouer du channel bonding pour optimiser son réseau. Cette technologie permet ainsi d’agréger plusieurs canaux au standard d’accès au câble Docsis 3.0, afin d’atteindre plusieurs dizaines, voire centaines, de mégabits par seconde par accès. C’est nécessaire pour le câblo-opérateur s’il veut distribuer à la fois de la télévision haute définition, de la vidéo à la demande (VOD), de la catch up TV ou encore de l’Internet à très haut débit. Mais est-ce suffisant ? Pour l’heure, Numericable propose en débit descendant (téléchargement, streaming, réception, …) du 100 Mbits/s, voire du 200 Mbits/s en zone éligible. Mais, dans certains cas, l’abonné doit se contenter de 25 à 30 Mbits/s. Qu’en sera-t-il lorsqu’un nombre plus important d’abonnés se bousculeront au portillon ? Autre point faible pointé par la même étude publiée par l’Arcep et les autres commanditaires : la voie de retour, c’est-à-dire les débits montants.« Sur câble, l’augmentation possible du débit montant est limitée. En effet,
si le FTTH est capable de proposer des débits montants élevés, la norme Docsis 3.0
ne permet pas en pratique d’atteindre actuellement des débits montants supérieurs à
10 Mbits/s. Ceci peut ainsi limiter la fourniture d’offres avec débits symétriques, utiles
pour les applications conversationnelles », dit l’étude d’Analysys Mason. Cette limite
des 10 Mbits/s en uploading fait pâle figure comparé au 100 Mbits/s sysmétriques, voire plus qu’offre le FTTH. Si Numericable peut se contenter d’investir moins de 200 millions d’euros par an dans son réseau très haut débit (afin de pouvoir rembourser d’ici à 2019 ses 2,35 milliards d’euros de dettes après avoir fait l’objet en 2006 du plus gros LBO de France), le câblo-opérateur français prend le risque financier d’être rapidement dépassé technologiquement. D’autant qu’un rapport de l’Idate (3), commandé par le Centre d’analyse stratégique (CAS) du Premier ministre et publié fin mars, fait aussi état des
« inconvénients » de la technologie FTTB – appelée aussi FTTLA (4). « La pérennité
des investissements FTTLA peut être remise en question face à l’évolution des usages (plus de besoins en bande passante, symétrie, etc.) », prévient le rapport (5). Les usages multimédias sont en effet de plus en plus lourds à acheminer jusqu’à l’abonné (vidéos HD sur Internet, télévision HD, TV 3D, VOD, catch up TV, …) et pourraient provoquer des engorgements sur le câble. Pire : des applications vont avoir besoin
de plus en plus de capacités symétriques telles que les jeux vidéo HD en ligne, la vidéoconférence résidentielle en HD, les services de cloud computing où l’on est amené à stocker dans le nuage des gigabits de données personnelles, le télétravail, la télé-formation ou encore la télémédecine qui auront besoin d’allers-retours « illimités » sur le réseau d’accès. Numericable mise en outre sur le multiscreen qui permet à plusieurs membres d’un même foyer de regarder des chaînes et d’accéder à Internet, quel que soit l’écran du foyer connecté en WiFi ou en 3G (téléviseurs, tablettes, smartphones). Ce « multi-usage » devrait aussi accélérer le besoin en sysmétrie très haut débit.
Mais pour Eric Denoyer, le réseau câblé dispose encore d’un fort portentiel. « Comme nous l’avons annoncé à Las Vegas en janvier dernier [lors de la présentation de la box de Numericable au Consumer Electronic Show, ndlr], nous sommes capables d’aller jusqu’à 4.000 Mbits/s par accès sur notre réseau ». Mais rien n’est dit sur le débit montant… Pour l’heure, faute d’investissements massifs de ses concurrents dans le FTTH, Numericable profite de ce retard en étant l’opérateur télécom qui compte le plus d’abonnés très haut débit en France : 70 % de parts de marché au 31 décembre, selon l’Arcep, alors que la barre des 200.000 abonnés FTTH a péniblement été franchie (voir tableau p. 11).

Numericable enterre déjà l’ADSL
Mais c’est surtout dans le vivier de l’ADSL – 95 % des accès haut débit en France (6) – que le câblo-opérateur espère convaincre de migrer vers le très haut débit. « Numericable veut capitaliser sur la fin de l’ADSL pour croître. (…) Le fait d’avoir un bon ADSL nous fait prendre du retard dans le très haut débit, comme le Minitel a retardé Internet en France », a estimé Eric Denoyer. En 2011, Numericable a réalisé 865 millions d’euros de chiffre d’affaires (+ 2,1 % sur un an) pour une marge brute d’exploitation de 436 millions d’euros (également + 2,1 %). La bataille du très haut débit – FTTH versus FTTB – ne fait que commencer. @

Charles de Laubier

Jouer avec les nuages (II)

Ce Noël, rien sous le sapin ! Rien qui ne rappelle, de près ou de loin, les traditionnelles boîtes de jeux vidéo qui venaient s’y empiler, d’une année sur l’autre. Entre temps, la dématérialisation de la filière des jeux vidéo continuait avec obstination à vider la hotte du Père Noël et les magasins spécialisés. Et ce n’est pas terminé. D’abord, parce que les consoles résistent en trouvant, génération après génération, de nouvelles ressources d’innovation justifiant encore leur attractivité : un équipement à domicile s’avère toujours indispensable pour jouer en 3D et ultra haut-débit sur écran géant, en faisant appel aux nouvelles ressources du web des émotions, prometteuses de sensations inédites. Si la console n’est pas (encore) morte, c’est aussi pour la simple raison que, pour les jeux, le processus de dématérialisation est autrement plus complexe que pour la musique, les films ou les livres. Il ne s’agit plus de simplement télécharger des fichiers mais de pouvoir jouer en ligne et en temps réel. Il est question ici de Gaming on Demand (GoD) ou de Cloud Gaming : grâce aux ressources du « cloud computing », toutes les opérations de calcul ne sont plus réalisées sur une machine à domicile mais sur de puissants serveurs distants. Cela concerne un chapitre de plus en plus important du catalogue de jeux, à la complexité accrue mais désormais compatibles avec les performances croissantes des réseaux à très haut-débit. Finie la course des foyers aux micro-ordinateurs survitaminés.

« Au moment où les chronologies des médias de la vidéo ou du livre sont mises à mal, une chronologie des jeux vidéo se met en place ! »

La guerre est désormais déclarée entre les acteurs en mesure de dominer cette nouvelle scène de diffusion des jeux vidéo. Les acteurs historiques du secteur s’y sont finalement lancés pour assurer leur survie. Mais il faut se souvenir qu’ils n’y entrèrent qu’à reculons, laissant à d’autres le soin de défricher devant eux. Les early adopters se sont familiarisés avec des jeux sur navigateurs proposés par des développeurs audacieux. On se souvient en particulier des succès des studios lillois 3DDuo, avec Leelh et Ankama avec Dofus lancé en 2004. Mais c’est Crytek, puissant studio indépendant de Frankfurt, qui, dès 2005, a investi dans une solution en mode GoD pour son jeu-phare Crysis, avant d’abandonner les recherches deux ans plus tard faute de réseaux à niveau. Le véritable lancement commercial du jeu online ne date en réalité que de 2010, avec l’arrivée très remarquée de la plateforme de distribution OnLive, lancée après plus de sept années de recherche par le pionnier Steve Perlman. Elle permet aux joueurs d’accéder à plus de 150 jeux de tout premier plan, instantanément et sur tous les terminaux, de la « télé » à l’ « ordi » en passant par les tablettes et les smartphones. Le tout, pour moins de 10 dollars par mois sans engagement et en s’appuyant dès le départ sur des opérateurs comme AT&T ou BT. Un autre californien lança en 2011 Gaikai, en misant pour sa part sur sa compatibilité avec Linux et en proposant de rémunérer les éditeurs de sites partenaires en fonction du temps passé sur un jeu. Depuis, de nombreuses sociétés ont mis en place ces nouvelles plates-formes de diffusion de jeux basées sur le nuage informatique multi-terminaux comme Playcast Media, Otoy, GameStop, G-cluster, Transgaming, Spoon, Darkworks, Gamestring, ou encore iSwifter. Autant de start-up qui, aujourd’hui, ont disparu ou ont été reprises par les géants du Net pour lesquels les catalogues de jeux sont devenus une part de l’offre de base de leurs services. L’expérience pour les joueurs réguliers ou occasionnels fut très positive et leur adhésion très rapide.
Pour les acteurs de la filière, il a fallu repenser une part importante de la distribution et stabiliser de nouveaux business models. Mais il est intéressant de noter, au moment où les traditionnelles chronologies des médias de la vidéo ou du livre sont mises à mal et drastiquement raccourcies, qu’une chronologie des jeux vidéo se met peu à peu en place – là où elle était initialement absente ! Les éditeurs ont en effet dû organiser de manière progressive une distribution de leurs titres « AAA », en privilégiant une sortie initiale sur les consoles avant d’autoriser leur diffusion sur les plates-formes de GoD. Preuve de la maturité nouvelle d’une industrie qui n’en finit pas de s’imposer, définitivement, en tant que Dixième Art aux côtés du Septième (le cinéma) ou du Quatrième (la musique). @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
Programmes audiovisuels à l’heure du web
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE publie en 2012 son rapport
« Cloud Gaming », par Laurent Michaud.

Pourquoi le « cloud computing » est un sérieux défi pour les industries culturelles

La mission Informatique en nuage, lancée par le ministère de la Culture et de la Communication (CSPLA), doit rendre en mars son rapport sur les droits d’auteur
et leur rémunération face aux nouveaux usages en ligne et à distance. Mais le défi dépasse les frontières nationales.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie.

* Christiane
Féral-Schuhl est bâtonnier du barreau de Paris depuis janvier 2012.

Le cloud computing est un système informatique de stockage sur des serveurs à distance, ce qui permet aux utilisateurs d’accéder à leurs données, de manière sécurisée, quel que soit le lieu dans lequel ils se trouvent. Ce « nuage informatique » présente un certain nombre d’avantages et permet notamment de s’adapter aux besoins évolutifs du client qui paiera uniquement pour ce qu’il utilise.

Les « nuages » s’amoncellent
D’abord majoritairement utilisé dans le milieu professionnel, le cloud computing connaît aujourd’hui un nouvel essor et séduit désormais un grand nombre d’utilisateurs pour des utilisations professionnelles et personnelles. Ainsi, les internautes peuvent d’ores et déjà bénéficier d’un espace de stockage mis à disposition par Apple (iTunes Match
par exemple) ou Google (Google Music notamment) leur permettant de disposer – à la demande – des fichiers musicaux qu’ils auront acquis par le biais de plates-formes de téléchargement. Cette démocratisation de l’utilisation du cloud fait apparaître des problématiques nouvelles relatives à la rémunération des auteurs et ayants droits, ainsi qu’au financement des industries culturelles. Des interrogations émergent d’abord en ce qui concerne la rémunération des auteurs et des ayants droits,
et principalement sur la possibilité d’assujettir ce type de « support » au paiement de la redevance pour copie privée. Le système mis en place par le Code de la propriété intellectuelle (CPI) tend à assurer aux ayants droits une rémunération forfaitaire au
moyen d’une redevance acquittée par les fabricants ou importateurs de supports d’enregistrement. Ce mécanisme a été pensé et instauré pour permettre l’indemnisation des auteurs dont l’oeuvre est enregistrée à la suite d’une diffusion publique autorisée.
La personne ayant acquis le support d’enregistrement disposera alors de la possibilité d’écouter ou de visionner l’oeuvre, sans qu’aucune contrepartie financière complémentaire ne puisse lui être réclamée. Aujourd’hui, la dématérialisation des œuvres et le développement des technologies numériques ont entraîné un manque à gagner pour
les bénéficiaires des recettes collectées au titre de la copie privée.

Le cloud computing participe de ce mouvement puisque, dès lors que des fichiers (par exemple musicaux) auront été téléchargés par l’utilisateur du nuage informatique, celui-ci pourra les y stocker et permettre à d’autres utilisateurs d’y avoir accès sans qu’aucune rémunération ne soit versée en contrepartie d’une réutilisation à l’infinie de l’oeuvre. Cette question est d’une acuité particulière puisque cette nouvelle technique d’hébergement risque de rendre obsolètes les autres modes de stockage traditionnels (MP3, disque dur externe, CD/DVD, clé USB, …) que pourront délaisser les utilisateurs au profit d’un accès à leur médiathèque à distance et sans support. Par conséquent, ce nouveau mode de consommation des œuvres est susceptible d’engendrer une perte importante de revenus pour les ayants droits, qui bénéficient de 75 % des sommes perçues au titre de la rémunération pour copie privée, mais plus largement une diminution de l’aide à la création culturelle financée à 25 % par les sommes issues de cette redevance (1). Ainsi, en 2010, 189 millions d’euros ont été perçus au titre de la rémunération pour copie privée et 47 millions ont été consacrés à l’action artistique (2).

L’inquiétude des ayant droits grandit
L’inquiétude des ayants droits et de leurs représentants s’explique également par le fait que la rémunération pour copie privée a déjà été affaiblie par l’exclusion de son assiette des supports à usage professionnels depuis la décision du Conseil d’Etat du 17 juin dernier (3), confirmant la position adoptée par la Cour de Justice de l’Union européenne
de la directive du 22 mai 2001 (4). La Société des auteurs, compositeurs et éditeurs de musique (Sacem) estime que cette exclusion aura pour conséquence une diminution d’au moins 20 % du montant global des perceptions (5). Les sociétés en charge de percevoir
la rémunération pour copie privée s’inquiètent également de la responsabilité mise à leur charge, après cette décision très récente du Tribunal de grande instance (TGI) de Nanterre datée du 2 décembre 2011. En effet, les sociétés Sorecop (musique) et Copie France (audiovisuel) ont été condamnées au paiement d’une indemnité de 1 million d’euros au site Internet Rueducommerce pour ne pas avoir agi, en connaissance de cause, à l’encontre des consommateurs s’approvisionnant en matériels de supports d’enregistrement auprès de commerçants étrangers. Le TGI considère en effet que cette inaction a été préjudiciable aux commerçants français qui, parce qu’ils sont soumis à la rémunération pour copie privée, se sont révélés moins compétitifs que leurs concurrents étrangers. Les sociétés se sont également vues reprocher de ne pas prendre les mesures nécessaires à « l’harmonisation du montant de la copie privée avec les autres législations européennes afin de lutte contre la distorsion de concurrence générée par
le marché gris » (6). A noter que des discussions sur les taxes pour la copie privée vont reprendre début 2012 autour du commissaire européen Michel Barnier. Ces problématiques nouvelles appellent aujourd’hui des aménagements nécessaires, destinés à rétablir l’équilibre entre les intérêts contradictoires des ayants droits et des assujettis à la rémunération pour copie privée (7). Alors qu’une réforme de la rémunération pour copie privée vient d’être promulguée par une loi publiée au Journal officiel du 21 décembre dernier (8), tout en faisant l’impasse sur le cloud, il apparaît inévitable de repenser encore le système de la copie privée en France.

Repenser à nouveau la copie privée
Des réflexions sont actuellement menées, notamment par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) concernant le cloud computing et l’éventualité de le soumettre au paiement d’une redevance destinée à financer la création et rémunérer la copie privée. Certains l’envisagent. Or cette solution mérite d’être nuancée. Il semble en effet difficile de permettre au nuage informatique de relever du système de la redevance pour copie privée tel qu’il a été conçu et fonctionne aujourd’hui. En premier lieu, parce qu’il tend à rémunérer l’exception au monopole de l’auteur sur le droit de reproduction de son oeuvre lorsqu’elle est limitée à l’usage du « copiste ». Or, dans le cloud, il n’est pas question de reproduction mais seulement de stockage d’une oeuvre qui a déjà fait l’objet d’une rémunération lors de son téléchargement – à supposer qu’il ait été légal (9). Il n’est pas non plus question de copier l’oeuvre sur d’autres supports mais simplement d’en disposer sur une plateforme dédiée. Par conséquent, le mécanisme instauré en 1985 devient obsolète. D’autant que depuis l’avènement des supports numériques, la « vraie » copie privée ne se rencontre que très rarement puisque les fichiers y sont généralement directement téléchargés ou transférés d’un support physique (CD, DVD, …) qui a déjà donné lieu à un paiement de la part de l’utilisateur. Par ailleurs, soumettre l’activité de cloud computing à rémunération soulève des questions juridiques annexes liées notamment à la territorialité (lire encadré ci-dessous). Comment faire peser sur les prestataires de ce service de stockage à distance une redevance française, alors que ces services peuvent être hébergés à l’étranger ? Cette interrogation apparaît d’autant plus légitime que, dans son jugement du 2 décembre 2011, le TGI de Nanterre a relevé que les montants perçus en France au titre de la copie privée sont plus élevés que dans les autres Etats membres de l’Union européenne (10). De même, comment distinguer s’il s’agit d’une utilisation soumise ou non à rémunération, à savoir une utilisation personnelle ou professionnelle ? Enfin, sur quel fondement juridique assoir cette rémunération, alors qu’il n’est plus question de copie mais simplement d’une transmission de flux ? Ces interrogations témoignent de l’enjeu pour les acteurs de la propriété intellectuelle souhaitant intervenir dans le développement du cloud. @

ZOOM

Vers des licences globales mondiales ?
Le Cloud computing est un phénomène en pleine expansion. Cependant, pour maintenir un équilibre dans les rapports entre créateurs et utilisateurs, il apparaît nécessaire d’envisager de nouveaux modes de financement de l’action culturelle et des ayants droits dans un contexte de mondialisation de la culture. Des questions connexes se dessinent également et notamment celle de savoir quelle sera la responsabilité de « l’hébergeur » de contenus illicites. Faut-il repenser le système d’exploitation des oeuvres musicales et audiovisuelles et s’orienter vers des systèmes de licences globales mondiales, dès lors que le cloud permet à une multitude d’utilisateurs d’accéder aux contenus stockés, dans le monde entier ? Affaire à suivre…