Pourquoi le géo-blocage est l’un des points de… blocage pour le marché unique européen

La Commission européenne a confirmé le 6 mai vouloir réformer le droit d’auteur afin de mettre un terme aux géo-blocages qui empêchent l’émergence d’acteurs européens capables de rivaliser avec les sociétés américaines. La France, elle, défend son « exception culturelle ».

Par Katia Duhamel, expert en droit et régulation des TICs, et David Guitton, avocat au barreau de Paris

La Commission européenne veut mettre fin au géo-blocage, perçu comme un frein au développement du marché unique numérique, et concrétiser ainsi une promesse de son président Jean-Claude Juncker qui avait affirmé vouloir
« briser les barrières nationales en matière de réglementation (…) du droit d’auteur » (1). Il est soutenu dans ce combat par le vice-président chargé du Marché unique du numérique, Andrus Ansip, et le commissaire européen au Numérique, Günther Oettinger.

Le géo-blocage agace les internautes
Pour atteindre ses objectifs, la Commission européenne souhaite « donner un caractère moderne et plus européen » (2) au droit d’auteur, notamment en vue de garantir que les utilisateurs qui achètent des films, de la musique ou des articles chez eux puissent également en profiter lorsqu’ils voyagent à travers l’Europe. En parallèle, elle a également ouvert une enquête sectorielle sur le commerce électronique afin d’identifier d’éventuels problèmes de concurrence, tels que des obstacles au e-commerce transfrontalier qui seraient érigés par les entreprises elles-mêmes dans les secteurs
où le e-commerce est le plus répandu (restrictions contractuelles insérées dans les accords de distribution). Cette enquête permettra de recueillir des informations sur le marché et d’évaluer les pratiques en cours à l’aune des règles de concurrence de l’UE (3). Si les partisans de réformer le droit d’auteur sont nombreux, notamment Julia Reda, députée européenne et membre du Parti Pirate, qui a élaboré un projet de rapport sur sujet (4), les détracteurs ne sont pas moins nombreux, à commencer par la France, opposée par principe à toute réforme perçue comme allant à l’encontre de son
« exception culturelle ». L’un des points de crispation porte sur le géo-blocage (geoblocking en anglais) qui regroupe l’ensemble des pratiques dont l’objet est de limiter l’accès à un bien ou un service sur certains territoires (ou de fournir ces biens
ou services dans des conditions différentes, notamment tarifaires, en fonction de la zone territoriale considérée). En pratique, les internautes sont souvent confrontés à
des mesures de blocage géographique, par exemple lorsqu’ils souhaitent visionner une vidéo dont la diffusion n’est pas autorisée dans le pays où ils se trouvent. Il peut s’agir aussi de blocage géographique au sens « physique » du terme (par exemple lorsqu’un bien disponible en ligne ne peut être livré dans l’Etat dans lequel se trouve l’internaute), mais également de formes atténuées de géo-blocages (lorsque les biens et services sont disponibles, mais à des conditions, notamment tarifaires, différentes) (5). Initialement focalisées sur les contenus audiovisuels, les mesures envisagées par la Commission européenne concernent également le géo-blocage des biens et autres services dont la livraison est impossible dans certains pays.

Il n’en demeure pas moins que le géo-blocage des contenus audiovisuels est particulièrement frustrant pour les consommateurs car il repose sur des frontières qui n’ont plus cours dans le monde numérique. Ces mesures créent des situations incompréhensibles pour les citoyens européens, touristes ou expatriés, qui, une fois la frontière franchie, ne peuvent plus visionner les contenus disponibles dans leur pays. Plus encore, elles peuvent impacter des Français vivant en Outre-Mer, dont l’adresse IP peut être discriminée car associée à une adresse IP étrangère, et qui ne peuvent alors accéder à certains contenus accessibles depuis la France métropolitaine. En effet, si les techniques de géo-blocages sont légions, elles impliquent toutes l’identification de la zone géographique dans laquelle se trouve l’internaute : identification de l’adresse IP, géolocalisation du terminal, nationalité du fournisseur d’accès à Internet (FAI), adresse de livraison, carte de crédit, etc.

De la frustration au piratage
Il est parfois possible de contourner ces mesures, par exemple en utilisant des serveurs proxy ou une connexion VPN (Virtual Private Network) afin d’utiliser l’adresse IP d’un pays dans lequel le bien ou le service est disponible, mais cela n’est pas toujours le cas. Le géo-blocage présente également des enjeux en matière de piratage puisque des consommateurs frustrés de ne pouvoir accéder aux contenus qu’ils affectionnent sont plus enclins à les télécharger illégalement qu’à attendre le moment, parfois hypothétique, où ces contenus seront légalement disponibles dans leur pays de résidence.
Afin de maximiser les profits, les détenteurs de droits fragmentent artificiellement le marché par pays, ce qui rend l’acquisition des droits de diffusion des œuvres pour l’ensemble des pays membre de l’Union européenne très onéreuse. Et ce, sans garantie suffisante de rentabilité pour chaque pays pris séparément, ne serait-ce
que pour des raisons de barrières culturelles et linguistiques.

La logique économique des DRM
C’est pourquoi les diffuseurs acquièrent généralement les droits de diffusion pour un nombre limité de pays, voire pour un seul pays. Dans ce cas, ils doivent s’assurer que les oeuvres concernées ne sont pas accessibles depuis les pays dans lesquels ils n’ont pas obtenus les droits de diffusion. Ceci se matérialise de façon contractuelle au travers des DRM (Digital Rights Management). La Commission européenne ne s’y est d’ailleurs pas trompée, qui a choisi de profiter de la réforme prochaine de la directive « DADVSI » de 2001 sur le droit d’auteur (6) afin de tenter de mettre fin au géo-blocage.
Cette initiative s’inscrit dans un ensemble de 16 mesures – que la Commission européenne a rendu publiques le 6 mai dernier – destinées à faire du marché unique européen une réalité. Il s’agit de mesures visant à améliorer l’accès aux biens et services numériques dans toutes l’Europe pour les consommateurs et les entreprises (7). Comparés aux diffuseurs européens, les grands acteurs numériques américains, par exemple Netflix, ne sont pas soumis aux mêmes contraintes économiques.
En effet, s’il leur est tout autant nécessaire de rentabiliser leurs investissements, ils bénéficient en amont d’un marché homogène de plusieurs centaines de millions de consommateurs partageant la même langue en Amérique du nord.
Tandis que les acteurs européens, eux, doivent d’emblée « jongler » avec la diversité culturelle et linguistique de l’ensemble des États membres (28 pays et 24 langues différentes). La question qui se pose est donc de savoir si les acteurs américains ne seraient pas les premiers bénéficiaires des mesures qui favoriseraient l’acquisition de droits à l’échelle européenne. Julia Reda s’en défend et affirme qu’« [elle] ne souhaite pas favoriser les sociétés américaines du numérique ». Elle ajoute : « Les évolutions que nous proposons bénéficieront avant tout aux sociétés européennes qui souhaiteraient se lancer » (8). Pour mettre fin aux pratiques de blocage géographique, la Commission européenne envisage une série de mesures, parmi lesquelles la création d’un titre européen du droit d’auteur, la réduction de la durée de protection
des droits, la généralisation obligatoire de l’ensemble des exceptions de la directive
« DADVSI » ou encore l’adoption d’une norme ouverte introduisant une souplesse
dans l’interprétation des exceptions et limitation.
Toutefois, les opposants à la réforme sont nombreux, et en premier lieu la France,
qui est vent debout contre ce qui est perçue comme une tentative de déstabilisation
de « l’exception culturelle » française. Ainsi, dans une note du 23 février 2015 (9), le Secrétariat général aux affaires européennes (SGAE) refuse de « remettre en cause le principe du cadre territorial dans lequel sont délivrées les licences » et estime qu’il faut se concentrer « sur la portabilité des services et non sur une remise à plat du principe de territorialité qui aurait pour conséquence un appauvrissement de la culture européenne ».
En d’autres termes, la France serait prête à soutenir une réforme a minima qui permettrait aux résidents d’un Etat membre de pouvoir accéder aux contenus disponibles dans son pays d’origine lorsqu’il est à l’étranger (portabilité des droits),
mais elle estime que la réforme générale du droit d’auteur envisagée par la Commission européenne remettra en cause la diversité culturelle française. La position de la France présente une dimension fataliste puisque le gouvernement précise : « Il ne faut pas être naïf ; le grand marché numérique européen ne sera jamais comparable
à ce qui peut exister outre-Atlantique pour une raison de langue. Raison de plus pour protéger la culture européenne, en limitant la réforme de la territorialité du droit d’auteur à la question de la portabilité des droits » (10).

« La bataille sera difficile » (Ansip)
Les organismes de gestion collective des droits sont également opposés à la réforme. Ainsi, en France, Hervé Rony, directeur général de la Société civile des auteurs multimédias (Scam), a souligné dans un tweet du 23 février 2015 que les DRM sont un aspect clé du financement de l’industrie culturelle. Or, selon les ayants droits, remettre en cause ce financement reviendrait à mettre à terre la sacro-sainte exception culturelle française. Dès lors, pour le collège de commissaires européens, le combat est loin d’être gagné. Andrus Ansip affirme ainsi : « Je ne me fais pas d’illusions, ce sera une bataille difficile » (11). @

Pourquoi le blocage par les FAI de sites web condamnés pour piratage reste inefficace

T411 est mort, vive T411 ! C’est ce que pourraient scander certains internautes après le jugement du 2 avril qui a ordonné à quatre FAI (Orange, Bouygues Telecom, Free et SFR) de bloquer l’accès à ce site web (de liens BitTorrent) accusé de piratage. Le contournement de cette mesure judiciaire limite sa portée.

Les internautes peuvent utiliser les services offerts par d’autres fournisseurs d’accès
à Internet [FAI] et/ou accéder aux sites en cause par tout autre moyen que leurs compétences techniques et leur désir d’échapper à la loi les inciteraient à rechercher. Ils soulignent la facilité avec laquelle les réseaux sociaux diffusent des conseils permettant à la communauté de leurs membres d’être informée des moyens de contourner les mesures de contrainte susceptibles d’être ordonnées par une juridiction, ce qui risque de rendre inefficace toute décision de cette nature ». Tout est dit.

Sept contournements possibles
C’est ce qu’a soutenu Free devant le tribunal de grande instance de Paris, lequel
a rendu son jugement le 2 avril. Le site web T411 incriminé, qui depuis a changé de nom de domaine pour orienter les internautes du « t411.me » – visé par cette décision judiciaire (1) – vers un « t411.io », n’a pas manqué d’expliquer à sa communauté d’utilisateurs comment contourner le blocage des FAI (2). Sept solutions ont ainsi été proposées, que le site web ZeroBin détaille de façon la plus pédagogique possible (3). Elles peuvent être résumées ainsi :
• Ajouter une adresse de serveur DNS : en plus de fournir une adresse IP, une box d’un FAI fournit des informations telles qu’une adresse IP de passerelle et une adresse IP de serveur DNS (nom de domaine). Lorsque l’internaute entre une adresse de site web, elle correspond à une adresse IP associée à ce DNS. Pour définir les relations IP-DNS, il faut un serveur DNS. Par défaut, c’est l’adresse IP de la box qui est utilisée. Sa propre liste sera alimentée par les serveurs DNS du FAI correspondant. Si le serveur DNS interrogé ne sait pas à quelle IP correspond le DNS recherché, alors le navigateur de l’internaute ne pourra pas atteindre le site web. La solution consistera donc à remplacer ou ajouter un serveur DNS qui connaisse encore cette relation, au sein des paramètres de la connexion réseau de l’ordinateur. Pour cela il faut entrer dans les propriétés de la connexion réseau utilisée pour accéder à Internet, puis dans celle correspondante au protocole Internet TCP/IP version 4. On laisse la partie « adresse
IP » telle quelle et on ne change que l’adresse du Serveur DNS souhaité.
• Utiliser un WebProxy : il s’agit d’un moyen pour accéder à un site web via un autre site web. Il existe des sites dédiés comme kproxy.com, où l’internaute peut entrer l’adresse du site web désiré, lequel sera atteint en faisant un détour par les Etats-Unis. Ce qui contournera le blocage. L’internaute est anonyme car il utilise l’adresse IP du WebProxy et non la sienne et le protège contre certains malwares ou spywares.
• Utiliser un serveur Proxy : le principe est le même que le WebProxy, à ceci près qu’au lieu de passer par un site web pour une redirection, l’internaute passe directement par un serveur à partir de n’importe quel logiciel (navigateur, logiciel de messagerie, outil de téléchargement, …) disposant d’une option « proxy ». Dans les paramètres du logiciel, l’utilisateur entre les informations du serveur proxy choisi (adresse IP, port, etc). Par exemple, freeproxylists.net donne une liste assez importante de proxies. Une fois configuré, le logiciel passera immanquablement par le serveur proxy. L’internaute peut devenir anonyme et passer les transferts via une connexion cryptée.
• Utiliser un VPN (Virtual Private Network) : la connexion sera créée depuis l’ordinateur de l’internaute et va générer une liaison avec un serveur. Tout ce qui entrera et sortira de son ordinateur sera crypté contrairement au proxy qu’il faut déclarer pour chaque outil utilisé.
• Utiliser un VPS (Virtual Private Server) : il peut jouer un rôle de serveur VPN,
de proxy ou de relais TOR (The Onion Router) et rendre ainsi anonymes tous les échanges Internet.
• Modifier le fichier Hosts : au sein de Windows, il existe un fichier qui agit comme un serveur DNS. L’internaute peut indiquer un DNS puis, en face, une adresse IP, le lien DNSIP étant alors établi. Ces sept points peuvent paraître fastidieux pour la plupart des internautes, mais ne sont pas impossibles à mettre en oeuvre – avec un peu de patience et de persévérance…

Inefficace, mais dissuasif ?
Le TGI de Paris le reconnaît d’ailleurs mais il en limite la portée : « S’il est exact que toute mesure de blocage peut être contournée par une partir des internautes, d’une
part il n’est pas établi que la grande majorité des internautes (…) a la volonté affermie de participer à une piraterie mondialisée et à grande échelle, et d’autre part [les utilisateurs] n’ont pas nécessairement le temps et les compétences pour rechercher les moyens de contournement que les spécialistes trouvent et conservent en mémoire ».
A défaut d’être efficace, le blocage de sites web tente de dissuader. @

Charles de Laubier

Qualité de service : l’Arcep va informer les internautes

En fait. Le 20 novembre, Jean-Ludovic Silicani, président de l’Arcep, a présisé à EM@ que les premiers résultats de la qualité de l’accès à Internet – à partir d’un ordinateur – seront publiés « avant la fin du premier trimestre 2014 ». Ensuite, l’Arcep envisage des outils plus interactifs avec les internautes.

En clair. L’Arcep y travaille depuis début 2012 et a pris une décision-cadre début 2013. Mais cette fois, la mesure de la qualité d’accès à Internet à partir d’un ordinateur (Internet fixe) est sur le point de voir le jour en France. C’est l’une des principales composantes de la neutralité d’Internet. « Nous aurons – avant la fin du premier trimestre 2014 – les premiers résultats de la qualité de l’accès à Internet sur quatre ou cinq caractéristiques
(le temps de latence, les débits, etc). Nous les rendrons publics et nous les améliorerons pour avoir des données réccurentes pour voir si la qualité d’accès à Internet évolue et si ce niveau est correct », nous a expliqué Jean-Ludovic Silicani,
le président de l’Arcep, en marge de son intervention au DigiWorld Summit de l’Idate
à Montpellier.
Il prévient que si le régulateur constatait la baisse globale du niveau de qualité de service, en-dessous d’un certain seuil, il se réserverait alors le droit, comme le prévoit la directive « Service universel et droits des utilisateurs » (1) et sa transposition en France (lire EM@41, p. 4), la possiblité de définir un standard minimal de qualité d’accès aux haut débit et très haut débit. En outre, l’Arcep étudie la façon de fournir aussi aux internautes des outils de mesure de la qualité de leur accès à l’Internet fixe
et mobile. Objectif : que les abonnés puissent – avec une « appli » ou un site web de monitoring – contrôler par eux-mêmes les éventuels blocages ou ralentissements de leur ligne et vérifier ainsi que leur FAI et opérateur mobile respectent la neutralité du Net.

Et ce comme l’a préconisé en mai 2012 l’ORECE, l’Organe des régulateurs européens des communications électroniques (lire EM@58, p. 7). « Après, faudra-t-il aller plus loin
en ayant quelque chose de plus interactif avec les internautes ? Peut-être. Nous verrons. Nous ne sommes en tout cas pas du tout hostiles à ce qu’il y ait, en plus,
des compléments d’informations pour les internautes, mais il faudra prendre cela avec plus de précaution. Les méthodologies sont différentes d’un pays à l’autre. On peut avoir en effet avec les internautes des méthodes plus interactives qui peuvent être complémentaires. Mais reste à savoir ce que l’on mesure avec l’internaute : la qualité de son ordinateur, la qualité de son réseau, la qualité de l’interconnexion, ou la qualité du service », nous a-t-il expliqué. @

 

BitTorrent lance dès janvier 2012 un protocole de streaming sur réseau peer-to-peer

La société américaine BitTorrent, dont le célèbre protocole peer-to-peer a été créé
il y a maintenant dix ans pour s’affranchir de tout serveur au profit des ordinateurs interconnectés des internautes, va lancer au CES 2012 un streaming fonctionnant en peer-to-peer !

Les industries culturelles se sont méfiées de BitTorrent, soupçonné de favoriser le piratage sur les réseaux peer-to-peer (P2P). Elles vont peut-être être terrifiées à l’idée
que cette société américaine va lancer, lors du prochain Consumer Electronics Show (CES) de janvier 2012 à Las Vegas, un nouveau protocole sur Internet baptisé P2P Live Streaming Protocol. Il permettra aux internautes de s’échanger entre eux des contenus (films, programmes, vidéos, …) comme ils le font actuellement en téléchargement sur réseau peer-to- peer, mais cette fois en streaming.

S’allier à des fournisseurs de contenus
Comme pour le téléchargement, le flux audio ou vidéo sera véhiculé entre les terminaux des utilisateurs via le réseau peer-to-peer, sans avoir à passer par les fourches Caudines d’un serveur centralisé ni d’un site web. Après avoir dépassé cette année les 100 millions d’internautes actifs chaque mois, BitTorrent génèrerait aujourd’hui à lui seul entre un quart et la moitié du trafic Internet mondial selon les régions. Dix ans après avoir créé ce protocole « pair-à-pair », Bram Cohen, le cofondateur de BitTorrent Inc. – aujourd’hui
« scientifique en chef » (1) – a lui-même mis au point ce P2P Live Streaming. Une démonstration en avait été faite en janvier dernier. Actuellement en fin de « phase Alpha », ce nouveau protocole est prêt à révolutionner la gestion de trafic et l’optimisation de la bande passante sur Internet. Son secret de fabrication : un temps de latence optimisé grâce à des algorithmes de « contrôle des congestions ».
Edition Multimédi@ a tenté en vain de joindre Eric Klinker, le directeur général de BitTorrent, Inc. Dans un entretien réalisé par le groupe britannique Informa, organisateur du Broadband World Forum 2011 fin septembre à Paris, ce dernier laisse entendre que le streaming live sur réseau peer-to-peer sera lancé lors du prochain CES. Et d’expliquer :
« Nous travaillons depuis environ un an sur ce protocole live qui la plupart des mêmes avantages que BitTorrent aujourd’hui. C’est réellement basé sur du peer. Aucun serveur n’est nécessaire ». Pour illustrer la puissance du P2P Live Streaming Protocol, il donne une indication : « Un simple téléphone portable peut desservir une audience de millions [d’utilisateurs], sans infrastructure et en moins de 5 secondes de [temps de] latence ». Avec le streaming pair-à-pair, le patron de BitTorrent entend séduire les opérateurs télécoms, les fournisseurs d’accès à Internet (FAI), les médias et les industries culturelles – cinéma et télévision en tête. « C’est un protocole que nous sommes en train d’implanter pour les télévisions linéaires et les événements en direct », précise Eric Klinker. Il vante aussi les mérites d’une « technologie fondamentale qui est parfaite pour les lourds fichiers des films ». Car BitTorrent veut convaincre les fournisseurs de contenus de s’allier avec lui comme c’est le cas de la société américaine Pioneer One qui produit une web-série diffusée gratuitement avec BitTorrent. En mai dernier, le film The Tunnel a aussi été diffusé sur le réseau peer-to-peer avant sa projection en salles et sa vente en DVD par le géant d’Hollywood Paramount Pictures. Cette quête de reconnaissance mondiale passe aussi par un programme de certification de terminaux (téléviseurs connectés, lecteurs DVD/Blue-ray, box, set-top-boxes, serveurs NAS ou disques durs multimedia, etc).
Lors de l’IFA de septembre, la foire internationale de l’électronique à Berlin, BitTorrent
a présenté avec le fabricant turc Vestel un premier téléviseur connecté estampillé
« BitTorrent Certified ».
Mais Eric Klinker reconnaît que le plus grand challenge est moins technologique que marketing. Le plus dur sera de faire comprendre que BitTorrent n’est pas un protocole pour pirater sur Internet mais « une méthode fantastique de distribution de contenus légaux ». « Le défi, c’est le comportement des utilisateurs. Tenir pour responsables les FAI pour les infractions à la propriété intellectuelle (…), ce n’est pas là que le problème
se trouve. Ce sont plutôt les gens qui l’édite [notre logiciel BitTorrent], qui le rendent disponible et donc le consomment », estime Eric Klinker.

Convaincre opérateurs télécoms et FAI
BitTorrent veut convaincre les FAI d’adopter le nouveau protocole comme l’a fait le britannique Virgin Media devenu Partner. Encore faut-il que les opérateurs de réseaux
et les FAI ne bloquent pas le protocole d’échange, comme l’a fait le câblo-opérateur Comcast aux Etats-Unis avant d’être condamné en 2007 par la FCC (2). En France,
Free fait polémique depuis que les ayants droit viennent de découvrir BitTorrent dans
la Freebox (3) … @

Charles de Laubier

Cookies et données personnelles : la protection des internautes sera-t-elle suffisante?

Comme le contrôleur européen de la protection des données (CEPD), les eurodéputés (1) veulent une meilleure protection des données personnelles.
Le gouvernement français, lui, prévoit dans un projet d’ordonnance de la
renforcer. Mais le CNN, nouvellement créé, a rendu un avis critique.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie.

Selon une enquête publiée en juin 2011 par la Commission européenne, trois européens sur quatre se disent inquiets
de l’utilisation de leurs données personnelles. Alors que
les débats sur la modification de la directive européenne
sur la protection des données personnelles de 1995 doivent débuter à l’automne 2011, la transposition du
« Paquet télécom » (2) va-t-elle les rassurer ?

Première analyse du CNN
Le 25 novembre 2009, le Parlement européen et le Conseil de l’Europe ont adopté
la directive « Droit des citoyens » (2009/139/CE) et la directive « Mieux légiférer » (2009/140/CE) modifiant les directives de 2002, appelées « Paquet télécom ». Ce paquet législatif constituait le cadre réglementaire européen des communications électroniques. Ces deux directives comportent des nouveautés en matière de service universel et de protection des consommateurs ; et il était prévu que les États membres les transposent avant le 25 mai 2011. ans ce contexte de relative urgence, le gouvernement a été autorisé par l’article 17 de la loi du 22 mars 2011, portant diverses dispositions d’adaptation de la législation au droit de l’Union européenne en matière de santé, de travail et de communication électroniques, à prendre par voie d’ordonnance les dispositions nécessaires à la transposition du Paquet télécom. Avant qu’elle ne soit adoptée, une consultation publique a été lancée jusqu’au 20 juillet sur un projet d’ordonnance. Saisi pour donner son avis, comme le sont notamment l’Arcep, le CSA
et la Cnil, le Conseil national du numérique (CNN) s’est exprimé sur les changements ayant un impact important sur le développement de l’économie numérique. Le rôle de cette nouvelle instance est, en effet, de conseiller le gouvernement sur les questions relatives au domaine du numérique et qui réalise, avec cette consultation, sa première mission d’analyse. Parmi ces nouveautés, le projet d’ordonnance envisage un nouveau cadre juridique applicable aux cookies et un dispositif visant à renforcer la protection des données personnelles.
Les cookies sont des outils « espions » qui s’installent sur le disque dur de l’utilisateur,
à l’occasion de la consultation de certains sites web. Ils permettent d’enregistrer la trace des passages de l’utilisateur sur un site Internet ou un forum et, ainsi, de stocker sur le poste de l’internaute des informations sur ses habitudes de navigation. Le serveur qui a mis en place la collecte de ces informations peut récupérer les données et les réutiliser lors de la prochaine visite du site par l’internaute. Ainsi, ils peuvent par exemple faciliter la navigation en évitant d’entrer de nouveau ses identifiants de connexion ou en stockant les éléments d’un panier d’achats, mesurer l’audience en comptabilisant le nombre de visites sur le site ou encore faire de la publicité comportementale. Certaines de ces finalités peuvent être particulièrement intrusives dans la vie privée des internautes et sont, à ce titre, souvent dénoncées.

Cookies : obligations préalables
L’article 2.5 de la directive « Service universel et droits des utilisateurs » (2009/136/CE) dispose que les États membres de l’Union européenne ont l’obligation de garantir que le stockage de cookies, ou l’obtention de l’accès à des cookies déjà stockés dans l’ordinateur d’un internaute, ne soit permis qu’à condition que cet internaute ait reçu préalablement une information claire et complète sur les conditions de ce stockage et de cet accès, et qu’il y ait consenti. Ainsi, le législateur européen a pris position en faveur du système de l’opt-in puisqu’il fait du consentement de l’internaute un préalable à l’installation d’un cookie – contrairement à l’opt-out faisant présumer le consentement de l’internaute jusqu’à manifestation par ce dernier d’une volonté contraire. Il convient de différencier deux types de cookies : ceux qui permettent, facilitent la navigation ou sont « strictement nécessaires à la fourniture d’un service de communication en ligne à la demande expresse de l’utilisateur », et ceux qui correspondent aux cookies utilisés par les régies publicitaires pour tracer les internautes. Les premiers ne sont pas concernés par ces nouvelles obligations, contrairement aux seconds. Ainsi, les sites ou régies publicitaires utilisant ce dernier type de cookie doivent : informer les internautes sur les finalités des cookies ; leur demander leur accord préalable avant toute implémentation sur leur poste et leur donner les moyens de s’y opposer lors du premier stockage (3). Toutefois, le projet d’ordonnance précise que le consentement de l’internaute peut résulter « de paramètres appropriés de son dispositif de connexion ou de tout autre dispositif placé sous son contrôle » (4). Pour le CNN, ce dispositif est de nature à assurer « un bon équilibre pour responsabiliser l’ensemble des acteurs de la chaîne ».

Protection des données personnelles
Les professionnels du secteur s’interrogent néanmoins sur l’applicabilité en pratique
de ces nouvelles règles, tant les cookies sont utilisés massivement sur Internet. L’article 37 du projet d’ordonnance transpose de manière quasi-littérale ce dispositif européen
et prévoit d’insérer dans la loi « Informatique et Libertés » (5) que « tout abonné ou personne utilisatrice d’un terminal doit être informé de manière claire et complète,
sauf s’il l’a été au préalable, par le responsable du traitement ou son représentant : de la finalité de toute action tendant à accéder, par voie de transmission électronique, à des informations déjà stockées dans son équipement terminal de communications électroniques, ou à inscrire des informations dans cet équipement ; des moyens dont elle dispose pour s’y opposer. Ces accès ou inscriptions ne peuvent avoir lieu qu’à condition que l’abonné ou la personne utilisatrice ait exprimé, après avoir reçu cette information, son accord qui peut résulter de paramètres appropriés de son dispositif
de connexion ou de tout autre dispositif placé sous son contrôle ». Concernant la protection des données personnelles, le CNN estime que le projet d’ordonnance va au-delà des exigences européennes. Selon l’article 2.2.c de la directive 2009/136/CE, la violation de données à caractère personnel correspond à « une violation de la sécurité entraînant accidentellement ou de manière illicite la destruction, la perte, l’altération, la divulgation ou l’accès non-autorisé de données à caractère personnel transmises, stockées ou traitées d’une autre manière en relation avec la fourniture de services de communications électroniques accessibles au public dans la Communauté ». Si une telle violation survient, le fournisseur doit prévenir l’autorité nationale compétente (en l’occurrence la Cnil en France). Il doit, par ailleurs, avertir l’abonné ou le particulier concerné, lorsque la violation est de nature à affecter négativement les données ou
la vie privée de ce dernier. Cette notification à l’intéressé n’est pas requise lorsque le fournisseur prouve qu’il a pris les « mesures de protection technologiques appropriées » et qu’il les a appliquées aux données concernées par la violation. Le projet d’ordonnance pose une condition supplémentaire en disposant que
la Cnil doit « valider les mesures de protection technologiques mises en oeuvre par
le fournisseur » (6). De plus, contrairement à la directive qui exige une notification à l’intéressé lorsque la violation des données lui porte préjudice, le projet d’ordonnance
ne conditionne plus cette démarche à la constatation d’un préjudice. Enfin, le projet d’ordonnance mentionne que le fournisseur doit avertir « sans délai ». Or, la directive précise que cet avertissement doit être effectué « sans retard indu », ce qui est moins contraignant pour le fournisseur.
Compte tenu de ces différences, le CNN considère que le projet d’ordonnance impose des contraintes disproportionnées aux fournisseurs et « qu’il serait donc souhaitable de transposer plus fidèlement les dispositions de la directive en matière de protection des données à caractère personnel ». Suite à la publication de l’avis du CNN, la Société
des auteurs et des compositeurs dramatiques (SACD) s’est dite « consternée » par le
fait que le CNN tenterait de « minimiser les obligations, totalement conformes au texte
de la directive européenne transposée, des fournisseurs de services de communications électroniques en matière de protection des données personnelles des consommateurs » (7).

Devoir de notification des fournisseurs
Les fournisseurs de services seront particulièrement vigilants aux autres avis des autorités administratives saisies, et notamment celui de la Cnil, afin d’anticiper au mieux les conditions dans lesquelles ils devront, sous peine de sanctions, notifier les cas de violations de données à caractère personnel. @

* Bâtonnier désigné du Barreau de Paris.

Pourquoi le VDSL pourrait court-circuiter la fibre

En fait. Le 24 janvier, l’Arcep a lancé jusqu’au 7 mars prochain une consultation publique sur « la montée en débit via l’accès à la sous-boucle locale de cuivre de France Télécom ». Solution plus rapide et moins onéreuse à mettre en place que
la fibre optique, et demandée par les collectivités locales.

En clair. Le coût du déploiement de la coûteuse fibre optique jusqu’au domicile – avec laquelle le gouvernement veut raccorder 2 millions de logements d’ici au 31 décembre
– est-il prohibitif face à la bonne vieille ligne téléphonique qui règne toujours en maître, avec 95 % des abonnés haut débit en France ? La question se pose avec l’arrivée du VDSL (Very-high-bitrate DSL). Selon nos informations, le nouveau VDSL2 – aux performances vectorielles de 100 à 150 Mbits/s sur une paire de cuivre – a été approuvé (1) et publié le 1er mai 2010 par l’Union international des télécommunications (UIT). Appelée aussi « G.Vector », cette norme G.993.5 offre le très haut débit sur
1 kilomètre de ligne téléphonique à partir du point d’accès de l’opérateur télécom (2). Les premiers tests du VDSL2 vectoriel auprès de quelques milliers d’abonnés auront lieu en Europe cette année, avant des déploiements en 2012. C’est un pas décisif vers le VDSL3 qui promet 500 Mbits/s, voire plus ! La société américaine Assia – fondée
par John Cioffi, co-inventeur dans les années 80 de l’ADSL (3) – va le démontrer d’ici
le 7 mars à l’Arcep, laquelle a en effet lancé une consultation jusqu’au 7 mars sur
« la montée en débit via l’accès à la sous-boucle locale de cuivre de France Télécom ». A Edition Multimédi@, John Cioffi confirme que sa technologie DSM (Dynamic Spectrum Management) permet sur VDSL2 jusqu’à 150 Mbits/s sur ligne téléphonique et jusqu’à 500 Mbits/s grâce au « bonding » (fusion de deux ou trois paires de cuivre). Mieux : « La technologie “phantom” permet d’atteindre 1 Gbit/s sur quatre paire des cuivre (soit huit lignes téléphoniques) et jusqu’à 500 mètres », assure-t-il. Alors le VDSL, complémentaire ou concurrent du Fiber-To-The-Home (FTTH) ? Pourquoi dépenser 30 milliards d’euros pour la fibre à la maison ? Alors qu’il suffirait d’amener
la fibre jusqu’aux 100.000 sous-répartiteurs de l’opérateur historique pour obtenir du Fiber-to-The Cabinet (FTTC) prolongé à moindre frais par la paire de cuivre jusqu’à l’abonné. Ouvrir à la concurrence cette sous-boucle locale de cuivre, comme le gouvernement français l’avait fait en 1999 pour la « première » boucle locale, auraient deux conséquences selon l’Arcep : « remettre en cause » la concurrence déjà en place sur les 12.300 répartiteurs dans le haut débit ADSL ; « retarder » le déploiement du très haut débit FTTH dans lequel les opérateurs télécoms Orange, SFR, Numericable et
Free sont censés investir lourdement. Et la neutralité technologique ? @

Les industries culturelles font appel aux internautes pour cofinancer leurs oeuvres

La musique, le cinéma, le livre ou encore la presse auraient-ils trouvé, à travers
les internautes, un nouveau filon pour cofinancer leurs productions ? MyMajorCompany, EditionduPublic, WeareProducteurs, Jaimelinfo, …
Les sites web participatifs se multiplient.

Chaque industrie culturelle a sa propre logique de financement, dans un univers économique et réglementaire qui lui est propre, son mode de production, d’investissement et de subventions : la musique avec sa licence légale et ses minimums garantis, le cinéma avec sa chronologie des médias et ses taxes « Cosip », le livre avec sa loi dédiée et son prix unique, ou encore la presse avec ses aides
d’Etat et sa publicité. C’est dans ce contexte bien établi qu’émerge un nouvel investisseur : l’internaute, celui-là même que les ayants droits soupçonnent d’être
pirate à ses heures ! Si faire appel aux dons du public – financement appelée crowdfunding – reste encore marginal, ce recours est prometteur.

Des œuvres à petits et gros budgets
Le financement collectif a commencé dans la musique avec notamment MyMajorCompany, qui a lancé le chanteur Grégoire devenu l’un des mieux payé en France avec 1,3 million d’euros perçus en 2009. Le 18 octobre, MyMajorCompany a par ailleurs annoncé un concours avec Virgin Radio pour faire émerger de jeunes artistes, dont le gagnant – révélé le 17 décembre prochain – se verra financé par les internautes. Fort de son succès depuis 2007, MyMajorCompany se diversifie dans le cofinancement de livres avec la création en mai dernier de MyMajorCompany Books (1). Les internautes sont appelés à miser jusqu’à 500 euros, le livre étant édité s’il réunit 20.000 euros, puis les coéditeurs se partagent 25 % des recettes.Le site EditionsduPublic.com est, lui, dédié à l’édition participative. Lancé lors du dernier Salon du Livre de Paris, il a dépassé fin juin ses premiers objectifs « avec 60 manuscrits reçus et 15 pitches et extraits de manuscrits en ligne, soumis aux souscriptions ».
Le co-éditeur en ligne peut « miser » à partir de 11 euros par livre qu’il recevra édité chez lui. Pour qu’un livre paraisse, il faut rassembler 22.000 euros, sinon l’internaute est remboursé (2).
Les médias commencent eux aussi à être concernés, à l’instar du site américain
« Spot.us » créé en 2008. En France, le site Jaimelinfo.fr – dont la version bêta est lancée courant novembre à l’initiative de Rue89 – propose aux internautes de soutenir des sites de presse en ligne par des dons « déductibles fiscalement » de 5 à 50 euros ou plus.
Un autre projet du même type vient de voir le jour : Glifpix.fr. Quant au cinéma, il n’est
pas en reste. Il y avait MyMajorCompany, Touscoprod, PeopleforCinema, Indiegogo, MotionSponsor, KisskissBankbank et, depuis juin, YourMajorStudio. Il faut désormais compter avec un poids lourd : WeareProducteurs. Lancé en mai dernier avec EuropaCorp, la société cotée en Bourse de Luc Besson (3), Orange y a investi 3 millions d’euros et misera autant dans l’achat du film ainsi coproduit avec des internautes (4). Dans ce projet, les cinéphiles du Web sont invités à contribuer à hauteur de 10 euros chacun, dans la limite des 5.000 euros (5).
Le premier scénario – dans sa version synopsis – a été « élu » le 12 juillet, pour une sortie du film à l’automne 2011. Il s’agit d’un thriller intitulé « A l’aveugle » (6). Cette nouvelle vague de coproducteurs cinéphiles a de quoi interpeller les ayants droits du Septième art et les pouvoirs publics quant à la prise en compte de cette nouvelle manne venue du Net. Le Centre national du cinéma et de l’image animée (CNC) a indiqué à Edition Multimédi@ que « en l’état actuel des choses aujourd’hui, il ne s’est pas saisi réellement du sujet », tout en constatant que cette pratique « reste encore relativement marginale ». De son côté, l’Association des producteurs de cinéma (APC) constate que « le financement maximum à en attendre aujourd’hui (30 à 70.000 euros) est intéressant, surtout pour le développement des films, c’est aussi un petit appoint pour la fabrication ». Mais son délégué général, Frédéric Goldsmith, met en garde :
« Il ne faut surtout pas, en revanche, que les sites promettent monts et merveilles
en termes de retour sur investissement. Il ne faudrait pas que des gens se sentent floués ».

Crowdfunding : boîte de Pandore ?
Reste à savoir ce qu’induira ce crowdfunding dans les industries culturelles. Si les internautes cofinancent des films, ne seraient-ils pas en droit de pouvoir les voir plus rapidement en vidéo à la demande plutôt que d’attendre les quatre mois réglementaires après la sortie en salle ? Luc Besson n’a-t-il pas suggéré de proposer des films sur Internet « juste après » leur sortie (7) ? Dans la production de musiques ou l’édition de livres, l’arrivée des internautes dans la chaîne de valeur pourrait aussi bousculer les habitudes de financement, de retour sur investissement, de propriété intellectuelle, de gestion collective, de responsabilité éditoriale ou encore de consommation des œuvres
en ligne. A suivre… @

Charles de Laubier