Le fair use en Europe : une fausse bonne idée qui mériterait un régulateur des droits d’auteur

Faut-il assouplir le droit d’auteur pour l’adapter aux usages numériques ? La tolérance dite fair use pratiquée aux Etats-Unis n’est pas une panacée, faute de prévisibilité. Certains préconisent la création d’un régulateur des droits d’auteur pour clarifier les règles du jeu.

Par Winston Maxwell, avocat associé Hogan Lovells LLP

Le fair use signifie une utilisation équitable. Aux Etats- Unis, la règle de fair use est une exception au droit d’auteur. Cela signifie que le titulaire d’un droit d’auteur ne peut pas empêcher une autre personne d’utiliser l’oeuvre si cette utilisation remplit les critères de fair use. En Europe, les exceptions au droit d’auteur sont énumérées dans une liste fermée qui intègre également le test dit « de trois étapes » (1) prescrit par la Convention de Berne et la Directive sur le droit d’auteur dans la société de l’information.

Limiter le « monopole » du droit d’auteur ?
Pourquoi la question du fair use commence à se poser en Europe ? Certains estiment que les textes européens ne sont pas suffisamment souples pour appréhender toutes les nouvelles utilisations qui émergent dans le contexte de l’économie numérique (voir encadré). Selon cette thèse, certaines de ces nouvelles utilisations ne devraient pas tomber sous le « monopole » du droit d’auteur car elles ne portent aucun préjudice à l’utilisation de l’oeuvre et aux intérêts du titulaire du droit d’auteur. Un bon exemple est la reproduction par les moteurs de recherche de photos en forme d’onglets : une telle reproduction de photos tombe difficilement dans l’une des exceptions énumérées dans le code français ou dans la directive européenne. La règle de fair use en revanche permettrait cette utilisation (2). Les tribunaux européens ne sont pas pour autant désarmés. Bien souvent, les tribunaux trouvent un autre biais pour arriver au même résultat. Par exemple, un tribunal en Allemagne a admis que la reproduction par un moteur de recherche de photos en forme d’onglet n’était pas une contrefaçon parce que le titulaire des droits aurait pu utiliser l’outil de dé-référencement mais ne l’a pas fait. La cour d’appel de Paris a décidé (3) que la reproduction d’onglets était protégée par la loi de 2004 pour la confiance dans l’économie numérique (LCEN). Bref, même lorsque la règle de fair use n’est pas disponible, les tribunaux en Europe ont des moyens d’arriver au même résultat. Alors pourquoi évoque-t-on le fair use aujourd’hui, et surtout pourquoi l’Hadopi s’y intéresse, notamment dans sa consultation publique – jusqu’au
15 juillet prochain (4) – sur les exceptions aux droits d’auteurs et aux droits voisins ?

En réalité, la question du fair use est très proche de la question des mesures appropriées pour lutter contre le téléchargement illicite. Dans les deux cas, il s’agit de déterminer le périmètre approprié pour les droits d’auteurs. Dans le cas du fair use, il s’agit d’examiner le problème par le biais de la définition même du droit de propriété,
en excluant de ce droit certains actes d’autrui, qui doivent être tolérés, tel un droit de passage au milieu d’un champ. Dans le cas des mesures contre le téléchargement illicite, il s’agit de trouver le bon dosage dans la mise en oeuvre des sanctions afin de tolérer certains téléchargements inoffensifs (5). Dans le premier cas, il s’agit d’injecter un peu de souplesse dans la définition même du droit d’auteur. Dans le deuxième, il s’agit d’injecter la souplesse dans la mise en oeuvre pratique des sanctions. Cette deuxième approche est au cœur de la politique de la réponse graduée, qui consiste à laisser passer un grand nombre d’infractions inoffensives pour se concentrer sur les plus graves. Ainsi, en créant le régime de réponse graduée, le législateur français a déjà créé de fait une exception de fair use qui concerne les internautes qui téléchargent de manière occasionnelle. On n’appelle pas cette tolérance fair use, mais le résultat est le même.

Les quatre critères du fair use américain
L’une des difficultés avec la règle du fair use aux Etats- Unis est son manque de prévisibilité. La loi américaine se contente de donner une liste de quatre critères très généraux pour déterminer si l’utilisation d’une oeuvre tombe dans l’exception du fair use. Ces quatre critères de fair use sont les suivants :
1 • L’objectif et le caractère de l’utilisation en prenant en compte notamment l’aspect commercial de l’exploitation ou son aspect non commercial et pédagogique ;
2 • La nature de l’oeuvre protégée ;
3 • La quantité et le caractère important ou non de l’extrait utilisé par rapport à l’oeuvre dans son intégralité ;
4 • L’effet de l’utilisation sur le marché potentiel de l’oeuvre ou sur sa valeur.
Ces critères doivent être interprétés au cas par cas par les tribunaux, et il faut parfois attendre de nombreuses années avant qu’une jurisprudence claire n’émerge sur un sujet donné. En attendant, les acteurs économiques restent dans le flou.

Un régulateur pour plus de prévisibilité ?
La Cour Suprême américaine a précisé en outre que ces critères devaient être appliqués de manière souple en prenant en compte notamment les objectifs d’origine du droit d’auteur et l’intérêt du public. Autant dire que la règle du fair use donne aux tribunaux un véritable boulevard pour décider si telle ou telle utilisation de l’oeuvre doit être tolérée au nom de la liberté d’expression et du progrès scientifique. Dans un système de common law, où les décisions de justice font autorité et établissent des règles pour l’avenir, ce type de souplesse permet aux juges de peaufiner les règles pour qu’elles s’adaptent aux changements technologiques et économiques. Mais cela peut prendre du temps. Ainsi, la souplesse de la règle de fair use est en partie illusoire. Puisque la règle est très générale, et puisqu’il faut des années pour qu’une jurisprudence émerge sur le sujet, il est difficile pour les créateurs de savoir à l’avance si leur utilisation d’une oeuvre sera permise ou non par la règle de fair use. Dans certains cas, la situation sera claire, par exemple en matière de parodie. Un tribunal américain (6) vient de confirmer que les créateurs de la série South Park pouvaient s’appuyer sur la règle du fair use dans le cadre d’une parodie d’une vidéo virale intitulée What What (In the Butt). Il en est de même pour les oeuvres critiques, tel qu’un nouveau roman qui raconte la même histoire que Autant en Emporte le Vent mais du point de vue des esclaves de l’époque (7). En revanche, les créateurs de mashups (8) et autres compilations restent dans le flou total sur l’applicabilité ou non de la règle de fair use (9) Il en est de même pour les utilisateurs qui créent des vidéos amateur accompagnées de musique protégée. Les ayants droits estiment que ces utilisations ne sont pas couvertes par la règle de fair use, et la jurisprudence ne donne pas d’indications claires sur le sujet. En matière de « User Generated Content » (UGC), la règle de fair use ne semble donc pas apporter une marge de manoeuvre accrue par rapport au système européen. Le manque de prévisibilité inhérent à la règle de fair use pourrait éventuellement être pallié par l’existence d’un régulateur, lequel définirait à l’avance les types d’utilisation qui seraient tolérées par la règle. C’est ce qui se passe aux Etats-Unis en matière de mesures techniques de protection. La loi américaine a prévu l’intervention d’un régulateur pour définir à l’avance les cas où une mesure technique de protection peut légitimement faire l’objet d’un contournement pour permettre une utilisation du type fair use. Le régulateur en question est le US Copyright Office (10) qui prépare actuellement une série de nouvelles règles qui définiront les cas où il sera possible d’effectuer des copies de DVD, notamment à des fins d’enseignement, et même des cas où il sera légitime de contourner les mesures de protection contenues dans les iPhones et iPads afin de permettre l’installation d’applications qui ne seraient pas homologuées par Apple. Cet aspect du travail de l’US Copyright Office rejoint les réflexions en France de l’Arcep (11) en matière de la neutralité d’Internet. Le régulateur français des communications électroniques a souligné la nécessité d’étendre la réflexion sur la neutralité du Net aux fabricants de terminaux. Certains professeurs américains (12) ont étudié le rôle de régulation de l’US Copyright Office et en ont conclu qu’il serait souhaitable d’envisager la création d’une véritable autorité de régulation du droit d’auteur aux Etats-Unis. @

FOCUS

Fair use et Private copying en Europe
Très écouté par la Commission européenne, le professeur Bernt Hugenholtz – directeur de l’Institut du droit de l’information (IViR) à l’Université d’Amsterdam, ainsi que conseiller de l’OMPI, de la Commission européenne et du Parlement européen – a publié en novembre 2011 une étude explicite intitulée « Fair use en Europe. A la recherche de flexibilités ». Par ailleurs , le commissaire européen chargé du Marché intérieur, Michel Barnier, a nommé fin 2011 António Vitorino comme médiateur pour une réforme européenne des « Private Copying Levies ». Les discussions sont en cours.

Le tandem Filippetti-Pellerin en ordre de marche

En fait. Le 12 juin 2012, est paru au J.O. un arrêté sur les dernières nominations
– notamment de Gilles Le Blanc et Kim Pham – au cabinet de la ministre de la Culture et de la Communication. Le 6 juin, auprès de la ministre en charge de l’Economie numérique, ont été nommés Jean-Baptiste Soufron et Matthieu Agogué.

En clair. L’arrêté daté du 6 juin fait entrer (entre autres) au cabinet d’Aurélie Filippetti, ministre de la Culture et de la Communication, Gilles Le Blanc au poste de directeur adjoint du cabinet, en charge de la presse, du numérique et de l’enseignement supérieur, et Kim Pham comme conseiller chargé de l’audiovisuel et du cinéma. Gilles Le Blanc était jusque-là professeur d’économie à l’Ecole des Mines ParisTech et chercheur au Cerna (1). Il est co-auteur en 2006 de « Modem le Maudit : économie de la distribution numérique des contenus ». Quant à Kim Pham, il quitte son poste de DG adjoint de gestion chez France Télévisions qu’il avait rejoint après avoir été directeur financier
et juridique du CNC (2). Les attributions de la ministre, fixées par décret du 24 mai, précise : « [Aurélie Filippetti] veille au développement des industries culturelles. [Elle] contribue au développement des nouvelles technologies de diffusion de la création et du patrimoine culturels. [Elle] veille au développement et à la valorisation des contenus et services culturels numériques ». En outre, la ministre « prépare et met en oeuvre la politique du gouvernement dans le domaine des médias » et « veille notamment au développement et à la diffusion de la création audiovisuelle ». Au cabinet de Fleur Pellerin, ministre déléguée en charge notamment de l’Economie numérique, arrivent Jean-Baptiste Soufron (avocat et directeur du programme Think Digital chez Cap Digital), par arrêté du 29 mai, comme conseiller numérique, Matthieu Agogué nommé conseiller technique communications électroniques (et postes) et Aymeril Hoang conseiller innovation (ces deux derniers sont d’anciens de l’Arcep). Aziz Ridouan, lui, est conseiller presse et communication. A noter qu’Arnaud Montebourg, ministre du Redressement productif (dont dépend Fleur Pellerin) est – par décret du 24 mai – compétent pour le développement de l’économie numérique et a autorité sur la Délégation aux usages de l’Internet (DUI) et dispose de la DGMIC (3) du ministère de la Culture. Et par décret du 9 juin, Fleur Pellerin s’occupe notamment du « développement de l’économie numérique, qui comprend notamment les réseaux, les équipements, les services, les usages et les contenus numériques, en lien avec les autres ministres concernés, ainsi qu’à la promotion et la diffusion des nouvelles technologies ». @

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.

Affaire « Louis Vuitton contre eBay » : la Cour de cassation redéfinit la notion d’hébergeur

Pour mettre fin aux hésitations de la jurisprudence sur la définition d’hébergeur,
à la responsabilité limitée, la Haute juridiction – dans son arrêt du 3 mai – en exclut les sociétés Internet ayant la connaissance ou le contrôle des contenus illicites qu’elles stockent.

Par Christiane Féral-Schuhl*, avocate associée, et Laurent Teyssandier avocat, cabinet Féral- Schuhl/Sainte-Marie.

A l’occasion d’un litige survenu entre la filiale Louis Vuitton (1) du groupe LVMH et le géant de l’Internet eBay (2), la Cour de cassation a apporté d’importantes précisions sur les conditions dans lesquelles les exploitants de places de marché sur Internet (sites d’enchères et de vente en ligne ouverts au public) sont susceptibles d’engager leur responsabilité lorsque sont proposés à la vente sur leurs sites des produits contrefaisants.

Les non-dits de la LCEN de 2004
L’affaire est connue : un fabriquant de produits de luxe assigne l’exploitant d’une place de marché en raison de la vente sur cette place de produits contrefaisants. C’est la société Louis Vuitton qui a fait assigner des sociétés du groupe eBay devant le tribunal de commerce de Paris, en leur reprochant de ne pas s’être assurées que leurs activités ne généraient pas d’actes illicites et d’avoir ainsi favorisé des actes de contrefaçon lui portant préjudice. Les sociétés eBay revendiquaient, quant à elles, le statut d’hébergeur, ce qui leur permettait de bénéficier d’un régime de responsabilité plus favorable que celui attaché au statut d’éditeur. Outre des questions portant sur la valeur des constatations réalisées par les agents de l’Agence pour la protection des programmes et celles sur la compétence territoriale des juridictions françaises, c’est surtout la position de la Cour de cassation sur l’applicabilité du statut d’hébergeur aux exploitants de places de marché sur Internet qui retient l’attention.
La loi du 21 juin 2004 « pour la confiance dans l’économie numérique », laquelle fixe le régime de responsabilité propre aux éditeurs de sites web et aux hébergeurs, ne s’est
pas attardée ce qu’il fallait entendre par ces notions. Ce silence a évidemment amené les juridictions et les auteurs à proposer les critères et conditions qui, selon eux, permettent de qualifier un prestataire d’éditeur ou d’hébergeur. Certaines juridictions ont par exemple reconnu comme critères permettant de déduire une qualité d’éditeur le fait que les contenus étaient publiés au sein d’une page aux couleurs et aux marques du prestataire animant le site (3), ou encore l’exploitation commerciale par la mise en place des espaces publicitaires sur les pages personnelles (4).
Au fil des années, les critères se sont affinés et la jurisprudence actuelle distingue entre, d’une part, les prestataires ayant un rôle actif dans la publication d’un contenu en ligne,
et, d’autre part, ceux ayant un rôle passif. Les premiers, qui réunissent les contenus,
les évaluent, voire les modifient, et procèdent volontairement à leur mise en ligne, sont qualifiés d’éditeurs. Les seconds, qui offrent le service ou l’infrastructure permettant la mise en ligne, sont qualifiés d’hébergeurs. C’est ainsi que le tribunal de grande instance (TGI) de Paris a défini l’éditeur comme « la personne qui détermine les contenus qui doivent être mis à la disposition du public sur le service qu’elle a créé ou dont elle a la charge » (5). Cette définition de l’éditeur – extrêmement restrictive – a été critiquée en ce qu’elle permet de regrouper sous la définition d’hébergeur non seulement les personnes fournissant des prestations techniques d’hébergement, c’est-à-dire la mise à disposition d’autrui d’un espace de stockage, mais également certains prestataires du Web 2.0 qui fournissent des services de partage de contenus en ligne (YouTube, Dailymotion, etc.)
et de réseaux sociaux (Facebook, Twitter, Google+, etc.).

Espace de stockage et outils
Pourtant, ce courant jurisprudentiel a également trouvé écho dans le secteur des places de marché en ligne, dont les acteurs principaux mettent à la disposition des particuliers
et des professionnels un espace de stockage et des outils leur permettant de publier des offres de vente. La Cour d’appel de Paris a considéré par le passé, pour qualifier la société eBay d’hébergeur, que « le site www.ebay.fr [était] un support en ligne permettant à des professionnels ou des particuliers, à travers le monde, d’acheter ou de vendre en ligne des biens ou services et qu’à ce titre, la société eBay n’agissait pas pour le compte du vendeur » (6).

Contrôle du contenu éditorial ?
Adoptant une position similaire, le TGI de Paris a également qualifié les sociétés eBay d’hébergeurs pour certaines de leurs activités, en retenant que si ces sociétés encadrent le processus de rédaction, proposent des aides à celle-ci (utilisation d’informations standards, d’un logiciel de manipulation de photos, …), il n’en demeure par moins en définitive que : seul le vendeur décide de l’objet mis en vente, du titre de l’annonce, du
prix de l’objet, de sa description et de la photographie diffusée, ainsi que de la mise en ligne de l’annonce dont il peut d’ailleurs décider du retrait ; que tout le processus de la vente (échange de l’accord des parties, paiement du prix et livraison du produit) s’effectue en dehors de l’intervention d’eBay et que ce dernier ne joue qu’un rôle d’intermédiation dans le rapprochement des vendeurs et des acquéreurs sans intervenir sur le contenu des offres (7).
Dans la présente affaire, la Cour d’appel de Paris a adopté, dans un arrêt du 3 septembre 2010, une position en rupture avec les décisions précédemment citées. Elle a retenu que les sociétés eBay fournissent à l’ensemble des vendeurs des informations pour leur permettre d’optimiser leurs ventes et les assistent dans la définition et la description des objets mis en vente en leur proposant de créer un espace personnalisé de mise en vente ou de bénéficier d’assistants vendeurs. En outre, ces sociétés envoient des messages spontanés à l’attention des acheteurs pour les inciter à acquérir et invitent l’enchérisseur, qui n’a pu remporter une enchère, à se reporter sur d’autres objets similaires sélectionnés par elles. La Cour d’appel a jugé que les sociétés eBay n’avaient pas la seule qualité d’hébergeur et ne pouvaient bénéficier, en leur qualité de courtier, du régime de responsabilité des hébergeurs, et les a condamnées à réparer les dommages subis par
la société Louis Vuitton du fait de leur manquement à leur obligation de s’assurer que leur activité ne génère pas d’actes illicites au préjudice de tiers. Devant la Cour de cassation, les sociétés eBay ont contesté cette décision en faisant notamment valoir que, d’une part, l’exercice d’une activité d’hébergement n’est pas exclu par une activité de courtage, dès lors que le prestataire exerce une activité de stockage des annonces sans contrôler le contenu éditorial de celles-ci et que, d’autre part, le rôle du prestataire doit être apprécié au regard de chacune des activités déployées par le prestataire et non globalement, et
au regard du contrôle réellement réalisé par celui-ci et non en fonction de celui que ses moyens techniques lui permettraient éventuellement d’exercer.
Dans son arrêt du 3 mai 2012, la Cour de cassation rejette ces arguments et confirme
la Cour d’appel sur ce point. Prenant acte de ce que les sociétés eBay jouent un rôle
actif de nature à leur conférer la connaissance ou le contrôle des offres de vente illicites qu’elles stockent, la haute juridiction retient que ces sociétés n’ont pas exercé qu’une simple activité d’hébergement et doivent être en conséquence privées du régime exonératoire de responsabilité prévu par l’article 6.1.2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.Dans cette décision, la Cour de cassation fait sienne la position adoptée par la Cour de Justice de l’Union européenne (CJUE), dans son arrêt « L’Oréal contre eBay » rendu le 12 juillet 2011. La CJUE avait en effet considéré qu’eBay, exploitant d’un site de marché Internet dont les utilisateurs avaient enfreint le droit des marques, avait joué un « rôle actif » dans les offres illicites et que,
dès lors, cet exploitant ne pouvait pas bénéficier du régime de responsabilité dérogatoire des fournisseurs de services en ligne (8).

Recadrage de la notion d’hébergeur
Cette décision recadre la notion d’hébergeur et paraît mettre fin aux hésitations de la jurisprudence quant à la définition de l’hébergeur, excluant ainsi les exploitants de places de marché en ligne dont une partie de la rémunération provient des revenus publicitaires et des commissions sur les ventes réalisées. La notion d’hébergeur semble désormais
se limiter aux seuls prestataires mettant à la disposition de tiers des espaces de stockage. @

* Elue en décembre 2010 par ses pairs,
Christiane Féral-Schuhl a pris officiellement
ses fonctions de bâtonnier du barreau de Paris
le lundi 2 janvier 2012.

Timeline

8 juin
• Apple condamné en Australie pour publicité mensongère sur l’iPad.

7 juin
• Vivendi pourrait vendre Activision Blizzard, selon « Bloomberg ».
• Le CSA indique que 178 dossiers de candidatures à la RNT sur Paris, Marseille et Nice lui son parvenus, soit trois fois plus qu’en 2008.
• L’IAB et IHS Screen Digest estiment à 3,8 milliards d’euros le marché mondial de la publicité sur mobile, dont 25,9 % en Europe.
• L’Observatoire de la musique : au second semestre 2011 : iTunes domine toujours, malgré le développement de Deezer.
• Lagardère maintient son offre sur LeGuide.com jusqu’au 12 juin, malgré le nouveau rejet de ce dernier.

6 juin
• Les Indés Radios proposent un modèle économique pour la RNT.
• Trace est candidate à la RNT.
• La DGCIS (Bercy) s’inquiète de l’assujettissement du « cloud » à la taxe « copie privée », révèle « PCINpact ».
• Filmo TV est disponible sur Galaxy de Samsung.
• Le Huffington Post, déjà au Canada, en Grande-Bretagne et en France (avec « Le Monde »), lance une édition en Espagne, et vise aussi l’Italie, l’Allemagne, le Brésil, l’Inde et le Japon.
• Internet passe du standard IP version 4 (IPv4) à la version 6 (IPv6).

5 juin
• La SACD estime que la redevance audiovisuelle pourrait s’appliquer « à tous les écrans » de télé (lire p. 3).
• Googleva racheter Meebo, start-up spécialiste des réseaux sociaux.
• Le CSA écrit à l’ASIC, pour l’inciter à participer à la commission « TV connectée », le régulateur assimilant Dailymotion ou YouTube à des « éditeurs » de vidéos (lire p. 3).
• Le SELL va déposer de demande d’autorisation à la Cnil pour recourir à l’Hadopi, indique Mireille Imbert Quaretta à « PCINpact ».

4 juin
• L’Hadopi dresse son bilan lors d’un colloque à La Sorbonne.
• TDF (SmartJog) annonce l’acquisition de Yacast Media.
• Microsoft dévoile Xbox SmartGlass, logiciel reliant smartphones et tablettes à sa console de jeux.
• ABI Research, sur les tablettes : l’iPad d’Apple détient 65 % de parts de marché mondial, suivi de la Galaxy Tab de Samsung avec 6 %.

1er juin
• AlloMusic est placé en liquidation judiciaire, indique le « BODACC ».
• L’Arcep lance jusqu’au 3 juillet une consultation sur la qualité de service d’accès à Internet, celle sur le rapport sur la neutralité du Net se tenant jusqu’au 20 juin.
• Netflix dépasse pour la première fois Apple sur le marché de la VOD, selon IHS iSuppli.
• L’AFA élit son nouveau président : Alain Liberge (Orange), qui remplace Richard Lalande (SFR).
• BeIn, la chaîne sportive d’Al-Jazeera, commence à émettre.
• Megaupload, non implanté aux Etats-Unis, demande l’abandon des charges devant la justice américaine.

31 mai
• L’ACTA est rejeté par trois commissions du Parlement européen.
• Le Bureau de la Radio (Europe 1, NRJ, RTL, BFM, …) renoncent à la RNT,
« convaincu que l’avenir de la radio numérique se fera via les réseaux IP ».

30 mai
• L’ASIC se félicite du jugement du TGI de Paris préservant le statut d’hébergeur à YouTube que contestait TF1 (lire p. 3).
• IAB Europe estime à plus de 20 milliards d’euros le marché de la publicité en ligne en 2011 (+ 14,5 % sur un an).
• Spotify pense qu’Apple aurait tenté de freiner son expansion.
• LoveFilm (Amazon) et NBC Universal signe un accord pluriannuel.
• Euronews se porte candidat à la RNT.

29 mai
• Le BEREC lance une triple consultation jusqu’au 31 juillet sur trois rapports sur la Net Neutrality (lire EM@58, p. 7).
• Samsung lance le Galaxy 3S à l’assaut de l’iPhone d’Apple, et Music Hub à l’assaut de iTunes.
• Apple (Tim Cook) porte « un vif intérêt » à la TV connectée.
• TF1 voit sa plainte contre YouTube pour contrefaçon rejetée (lire p. 3).
• Amazon Instant Video est disponible sur la Xbox 360 (Microsoft).
• Ovum estime que les « OTT TV » (LoveFilm ou YouTube) seront plus complémentaires que concurrents à la télévision traditionnelle.
• Gartner : le paiement mobile dépassera 171,5 milliards de dollars dans le monde en 2012.

28 mai
• Facebook va sortir son téléphone mobile dès 2013, selon le «N YT ».
• La Commission européenne veut rassurer sur son programme MEDIA qui soutient des sorties simultanées de films en salle, en DVD et en VOD.

25 mai
• L’Autorité de la concurrence publie une consultation sur la fusion CanalSat/TPS et le test de marché (réunion plénière mijuin et verdict en juillet).
• Yahoo abandonne son kiosque numérique « Livestand ».
• Google : « Nous traitons plus de demandes de retraits liés au droit d’auteur (…) que jamais auparavant ».

24 mai
• Facebook lance l’application « Facebook Camera », après le rachat d’Instangram.
• Apple confirme la démission de son patron Europe, Pascal Cagni, révélée par « Le Figaro ».