Le contrat d’édition numérique français résistera-t-il à l’épreuve du droit européen ?

En France, tous les contrats signés depuis le 1er décembre 2014 doivent se conformer aux nouvelles règles entourant le contrat d’édition étendu au numérique. Les contrats antérieurs seront amendés. Mais avec le débat autour
de la réforme du droit d’auteur, l’Europe pourrait avoir son mot à dire.

Par Rémy Fekete (photo), avocat associé, et Marta Lahuerta Escolano, avocate, Gide Loyrette Nouel

L’ordonnance du 12 novembre 2014 modifiant les dispositions
du Code de la propriété intellectuelle (CPI) relatives au contrat d’édition (1) entend clarifier le cadre législatif qui entoure l’édition numérique et l’adapter à un marché de l’exploitation numérique des livres qui peine encore aujourd’hui à se développer en France. Elle est avant tout le résultat d’une demande des auteurs soucieux de pouvoir isoler les droits liés à la diffusion numérique, dans un contexte où la lecture sur supports numériques gagne
de fait de plus en plus de terrain sans une véritable codification. Ainsi, l’ordonnance codifie l’accord-cadre du 21 mars 2013 intervenu entre le Syndicat national de l’édition (SNE) et le Conseil permanent des écrivains (CPE) (2).

Encadrement autour de trois axes
A l’ère du numérique, comment faut-il interpréter des textes qui parlent de « fabriquer ou de faire fabriquer en nombre des exemplaires » ? L’ordonnance élargie la définition légale du contrat d’édition pour inclure expressément la forme numérique : « Le contrat d’édition est le contrat par lequel l’auteur d’une oeuvre de l’esprit ou ses ayants droit cèdent à des conditions déterminées à une personne appelée éditeur le droit de fabriquer ou de faire fabriquer en nombre des exemplaires de l’oeuvre, ou de la réaliser ou de la faire réaliser sous forme numérique, à charge pour elle d’en assurer la publication et la diffusion » (3). Cet encadrement du contrat d’édition numérique s’articule en particulier autour de trois axes : la forme du contrat d’édition, les modalités d’exploitation de l’oeuvre et les modalités de rémunération des auteurs.
L’ordonnance instaure une autonomie formelle de la cession numérique : celle-ci devra se voir attribuer une partie distincte au sein du contrat. Cette autonomie de forme reflète l’autonomie de fond : la nullité ou la résiliation de la cession des droits d’exploitation sous une forme numérique n’aura pas d’effet sur l’exploitation de l’oeuvre sous forme imprimée (et inversement) et ne remettra pas en cause la validité du reste du contrat.
Du point de vue de l’exploitation de l’oeuvre, l’ordonnance impose à l’éditeur notamment l’obligation d’exploiter l’oeuvre dans sa totalité ou celle de la rendre disponible sur des formats usuels du marché et non propriétaires. Plus encore, à défaut d’exploitation dans les deux ans et trois mois suivant la signature du contrat, la reprise des droits d’exploitation numérique s’opère de plein droit, sur simple notification de l’auteur à l’éditeur. L’éditeur est sujet à une obligation d’exploitation permanente et suivie qui, dans le contrat d’édition numérique, englobe, entre autre, l’obligation d’exploiter l’oeuvre dans sa totalité, de la présenter au sein du catalogue numérique de l’éditeur, de la rendre accessible dans un format technique exploitable selon les formats usuels du marché (4) et de le présenter à la vente sur un ou plusieurs sites.
Une précision novatrice sur« l’obligation d’exploitation permanente et suivie » (5) est apportée : si l’éditeur manque à ses obligations d’exploitation sur l’un des deux supports, l’auteur ne pourra exciper de sa capacité de résiliation de la cession que sur les droits non exploités. En pratique, si un éditeur achète l’intégralité des droits d’un ouvrage et se limite à une exploitation du support papier, l’auteur cessionnaire pourrait obtenir la résiliation de la cession des droits numériques. Une fois l’auteur de nouveau titulaire de ses droits d’exploitation, il serait alors libre de les céder à un autre éditeur.

Obligation de publier dans les délais
L’éditeur d’une oeuvre sur support numérique est dans l’obligation de la publier dans les quinze mois de la remise du manuscrit ou dans les trois ans de la signature du contrat. Un manquement à cette obligation de publication permettra à l’auteur, après mise en demeure restée sans effet, de reprendre les droits cédés et non exploités. Une reprise de ces mêmes droits pourra avoir lieu en cas de défaut d’exploitation dans un délai de deux ans et trois mois à compter de la remise du manuscrit ou de quatre ans à compter de la signature du contrat. Dans cette dernière hypothèse, une simple notification de l’auteur à l’éditeur suffit. Enfin, l’ordonnance prévoit, entre autres, que l’éditeur opère une reddition annuelle des comptes à l’auteur, en y distinguant les recettes générées par l’exploitation numérique : cette mesure entend garantir aux auteurs une rémunération « juste et équitable » (6).

Rémunérer les auteurs, mais pas au forfait
L’assiette de rémunération doit prendre en compte les recettes directes (la vente à proprement parler) et indirectes (par exemple les recettes engendrées par la publicité). Par ailleurs, la rémunération au forfait pour la cession de l’ensemble des droits liés à une exploitation numérique est interdite. Cependant, elle est autorisée pour des actes précis d’exploitation. Tout acte supplémentaire fera l’objet d’une nouvelle négociation (7).
Les discussions autour de l’accord-cadre n’ont en revanche pas tranché le débat sur le niveau de la rémunération, qui fera l’objet d’une négociation contractuelle. En pratique, le taux de rémunération pour l’exploitation numérique est aligné sur celui de l’exploitation papier bien que les éditeurs ne supportent ni frais d’impression ni de librairie (8). Lors de cette négociation, les parties prendront en considération la nouvelle répartition des recettes tirées de la diffusion numérique qui, de plus en plus, profite aux plateformes de distribution. En pratique, pour établir la reddition annuelle des comptes qui doit inclure les revenus issus de la vente à l’unité et de chacun des autres modes d’exploitation du livre numérique, l’éditeur sera amené à collaborer avec les plateformes de diffusion. En cas d’exploitation papier et numérique, le détail est donné dans deux parties distinctes. L’éditeur manquant à cette obligation de reddition pourrait, dans certaines hypothèses, être sanctionné par une résiliation émanant de l’auteur. En France, tous les contrats signés à partir du 1er décembre 2014 doivent se conformer
à ces règles, de même que les contrats antérieurs devront, quant à eux, être amendés (9). Mais quelle est la position du contrat d’édition numérique français dans le contexte européen ? La Commission européenne présidée par Jean-Claude Juncker est à la tête de l’Union européenne depuis le 1er novembre 2014. Le développement du marché unique du numérique est l’une de ses priorités mais ce projet n’est pas acquis pour autant.
En effet, au niveau européen comme au niveau des Etats membres, des opinions diverses se font entendre. Cet empressement à instaurer le marché unique du numérique se reflète dans la nouvelle organisation de la Commission européenne : jusqu’à présent, les problématiques liées au droit d’auteur relevaient de la responsabilité du commissaire au Marché intérieur, lesquelles sont désormais sous
la responsabilité du commissaire au Marché numérique unique. Andrus Ansip, vice-président en charge du dossier, veut supprimer au plus vite les barrières injustifiées
à l’établissement de ce marché. Il approuve ainsi les objectifs ambitieux affichés par Jean-Claude Juncker qui parlait d’imposer des réformes ambitieuses lors des six premiers mois de son mandat. Pour lui, ces réformes passent par la suppression des barrières nationales et en particulier par la suppression des différences en matière de réglementation du droit d’auteur (10).
Mais une autre tendance est défendue par le commissaire à l’Economie numérique, Günther Oettinger, qui, avant d’émettre des propositions, souhaite prendre le temps de consulter les acteurs du marché. Il estime qu’une réflexion d’un an ou deux permettrait d’aboutir à une réforme équilibrée. Cette approche considère que le droit d’auteur doit prendre en considération en priorité la négociation contractuelle et démontrer sa capacité d’adaptation aux évolutions de l’ère numérique.
Les inquiétudes ressenties face au risque de réforme hâtive sont particulièrement présentes chez les professionnels européens du livre. Dans une déclaration du 9 octobre 2014, ces professionnels issus de quatorze pays européens rappellent que tous les acteurs du livre cherchent à trouver des nouveaux modèles qui permettent
de maintenir et diffuser la diversité culturelle dans le domaine du livre tout en défendant le droit d’auteur (11). Le contrat d’édition numérique français fait figure de premier acte au sein du débat qui se joue désormais sur la scène européenne. L’incertitude existe encore sur l’approche qui l’emportera au sein des instances communautaires. Soit celles ci entérinent la préoccupation française de préserver la défense du droit d’auteur et la France pourra apparaître comme précurseur voire comme un modèle, soit un modèle plus consumériste est retenu et les fondements juridiques de l’ordonnance française en seront d’autant affaiblis.

La technologie plus rapide que le droit
Reste que l’on peut surtout s’interroger sur la différence des temps : entre le temps court de l’émergence et de la diffusion des nouvelles applications digitales et le temps long des adaptations législatives, on constate une nouvelle fois l’incapacité du modèle démocratique habituel à ajuster les principes de droit au rythme des évolutions technologiques.
D’années de négociations et de discussions juridiques, il ne ressort pour l’instant qu’une adaptation à la marge du CPI (12), et qui ne devrait guère bouleverser les libraires indépendants dont la survie, pourtant essentielle aux éditeurs comme aux auteurs, reste la principale menacée de l’essor du livre numérique. @

Montée en puissance des projets « smart city » : la question de la protection des données reste posée

Les projets smart city dans le secteur des communications électroniques sont
de plus en plus nombreux et illustrent une tendance qui ne paraît pas prête de s’inverser : la coopération entre le secteur public et le secteur privé, et l’utilisation partagée des différents réseaux et données.

Par Michel Matas, avocat associé, et Katia Duhamel (photo), avocat of counsel, cabinet Bird & Bird

Inspiré par une littérature abondante, dont le dernier livre
de Jeremy Rifkins (1), lequel a conseillé de nombreuses collectivités territoriales, institutions et gouvernements (2),
le concept de « smart city » s’est aujourd’hui étendu et globalisé. Il vise, par l’interopérabilité des réseaux et des données rendue possible grâce aux nouvelles technologies, à rendre les villes plus utiles et plus efficaces.

 

Coopérations public-privé
Selon un rapport du think tank Institut de l’Entreprise, le potentiel en termes de marché des technologies est estimé à 15 milliards d’euros en 2020. Rien qu’à Paris, 36 %
des investissements internationaux en 2012 étaient concentrés sur le secteur des technologies de l’information et des télécommunications (3).
Au-delà des différences entre secteur public et secteur privé, il est une caractéristique invariante qui caractérise l’ensemble des projets smart city : une coopération systématique entre secteur public et secteur privé. Cette participation du secteur public est néanmoins plus ou moins marquée selon les projets. A son degré le plus élevé se situe la commande publique : il s’agit, pour une entité publique, d’utiliser ce levier afin de piloter elle-même un projet smart city. Si de très nombreux projets ont déjà vu le jour ou sont en préparation il paraît difficile de ne pas citer l’un des plus emblématiques : Vélib, lancé en 2007, dans le cadre d’un partenariat entre JCDecaux et la Ville de Paris et dont l’objet consiste à mettre à disposition des usagers environ 17.000 bicyclettes
sur plus de 1.200 stations réparties à Paris et dans la petite couronne, pour près de 100.000 trajets quotidiens. Son modèle économique est également remarquable : à l’instar de l’expérience lyonnaise sur laquelle Paris s’est appuyée, la municipalité a
en effet couplé l’attribution de l’affichage publicitaire urbain avec l’installation et l’exploitation de Vélib permettant non seulement à la ville de Paris de faire installer
et exploiter le réseau Vélib sans bourse délier, mais également de dégager des ressources issues de l’exploitation du mobilier urbain. Il est impossible de passer
en revue l’ensemble des projets liés à la commande publique dans la catégorie smart city, mais les projets peuvent aussi bien concerner le déploiement de réseaux de communications locaux, comme l’installation et l’exploitation de « data centers », l’éclairage public, la distribution d’eau, de gaz ou d’électricité, voire des projets liés à des services dans diverses villes (Bordeaux, Strasbourg, …), et permettant aux usagers disposer de services interactifs voire de souscrire et payer lesdits services au moyen de smartphone via la technologie sans contact NFC (Near Field Communication).

A un degré plus intermédiaire, le secteur public – sans être à l’initiative du projet lui-même mais grâce aux moyens mis à disposition des acteurs privés – permet l’émergence d’une série de projets smart city. Si traditionnellement la mise à disposition de moyens s’entend comme les aides ou subventions que la commune peut consentir, comme c’est par exemple le cas de divers incubateurs de start-up avec l’aide de partenaires privés, une partie essentielle de l’assistance fournie aux opérateurs privés consiste aujourd’hui dans la mise à disposition de données publiques dans le cadre de l’Open Data. Dans ce cadre, et au-delà des divers standards en vigueur en France tels que ODBL ou Etalab (4), la mise à disposition de dizaines de milliers de fichiers permet par exemple aujourd’hui d’extraire et d’utiliser les trajets de nombreux transports en commun, les horaires d’une multitude services, les quantités de plans et milliers d’autres données publiques (payantes ou non).

Multiples services, locaux ou nationaux
Cela permet au secteur privé d’offrir de multiples services, du plus local (les emplacements de stationnement libres à Nice) au plus national (les horaires des trains intégrés à des plateformes plus larges d’information).

A un degré plus faible, il est rare que les acteurs publics – même lorsqu’ils ne le sont pas directement – ne soient pas concernés en leur qualité de gestionnaire du domaine public, voire d’autorité délégante. En effet, l’interopérabilité des réseaux et des données aboutit à une collaboration croissante entre des acteurs privés dans laquelle la puissance publique aura son mot à dire in fine, lorsqu’elle n’est pas consultée en amont. Ainsi, par exemple, en sera-t-il dans le cas où un gestionnaire de mobilier urbain conclurait avec un opérateur mobile un accord visant à permettre à ce dernier de déployer sur son mobilier urbain des antennes WiFi de faible portée. Et ce, afin de permettre à l’opérateur mobile en question de sécuriser par redondances son réseau principal et d’améliorer le débit disponible dans une zone densément peuplée (5).

Données et anonymisation : risques
Dans la mesure où les projets smart city impliquent à la fois des acteurs publics et
le secteur privé, l’une des premières caractéristiques de ce type de projet est qu’ils associent en général le droit public au droit privé et que bien souvent – mêmes s’ils relèvent intégralement du droit privé lorsque seuls des acteurs privés sont concernés
– une connaissance approfondie des règles applicables aux contrats publics ou aux occupations du domaine public est nécessaire.
Au-delà de cet aspect « organique », la question de la protection des données constitue en général l’une des problématiques les plus fréquentes, que cela soit pour la protection des données publiques utilisées pour fournir le service basé sur l’Open Data, et pour la protection des données personnelles des utilisateurs du service. En effet, bien souvent la collecte des données des utilisateurs est faite aux fins d’amélioration du service (par exemple, pour déterminer les heures de pointe ou non, les embouteillages, les temps de trajet, etc). Dans d’autres cas, les utilisateurs peuvent avoir à rentrer eux-mêmes leurs informations ou leurs données afin de renseigner les autres utilisateurs ou le fournisseur du service concerné, à moins d’être amenés à enrichir le service en tant que tel.
Outre les limites physiques liées au stockage de ces données collectées, demeure l’obstacle de leur anonymisation. Suite à une consultation menée au début de l’année 2014 et intitulée « Open Data et données personnelles », la Commission nationale de l’Informatique et des Libertés (Cnil) révèle que près de 50 % des gestionnaires de données publiques ont indiqué avoir déjà fait part de leur opposition à l’ouverture de certaines données au motif d’un risque d’identification de personnes physiques (6). Ainsi, les solutions pratiques permettant l’anonymisation des données étant parfois sommaires, elles sont un enjeu important face au risque d’identification des données amplifié par les possibilités de croisement des informations.

La sécurité est également une problématique inhérente au développement de certains services tels que l’utilisation de la technologie NFC. La Cnil a déjà émis des réserves concernant la sécurité des paiements par cartes bancaires sans contact : l’accessibilité à certaines données bancaire et l’existence d’un « risque de piratage » sont préoccupantes. La Cnil préconise un « chiffrement des échanges » et une meilleure information des utilisateurs, ainsi que la possibilité pour ceux-ci d’activer ou désactiver le service (7). L’intégration de cette technologie à la téléphonie mobile crée de nouveaux défis en matière de sécurité des moyens de paiements.
Lors de l’expérimentation à Nice de la ville Cityzi, développant une multitude de services sans contact (achats, validation de titres de transports, accès à des informations contextuelles, etc), la Cnil a pu constater que les communications entre la puce NFC et les « valideurs » sont sécurisées par un chiffrement apportant une sécurité particulière lors des transactions effectuées via cette technologie. Elle veille à ce qu’il y ait une attribution d’un alias différent pour chaque fournisseur de services, de façon à ce que le recoupement d’informations sur les services utilisés ne puisse être effectué. En outre, dès lors que les réseaux et services fournis au public sont concernés, plusieurs réglementations viennent en général s’ajouter les unes aux autres. Ainsi, par exemple dans le cas de l’installation d’un réseau télécoms sur un autre réseau public (électrique, éclairage, mobilier urbain, …), il conviendra de concilier les obligations de continuité et les contraintes techniques et réglementaires de part et d’autre.

Complexité accrue et inéluctable
Aussi complexe soient-elle, l’utilisation mutualisée des données et des réseaux n’en
est aujourd’hui qu’à ses prémisses et il semble que les années à venir marqueront une nette accélération des projets smart city. Il paraît en effet inéluctable que l’ensemble des infrastructures, équipements et données publiques soient, à terme, interconnectés les uns aux autres, interactifs et utilisables par le plus grand nombre. @

Homo-Sapiens contre Homo-Technicus

Pour me lever le matin, plus besoin de réveil : une petite impulsion envoyée par ma puce cérébrale s’en charge. Pour mieux entendre une musique, je ne monte plus le
son d’un appareil : mon oreille s’occupe directement du réglage. Pour voir un détail lointain qui m’intrigue : une simple requête mentale adapte la vision de mes lentilles connectées. D’autres gestes simples et quotidiens sont
en passe d’être à leur tour contaminés par cette fièvre technologique. Ils sont les symptômes d’une confrontation majeure qui se joue au XXIe siècle entre Homo-Sapiens et Homo-Technicus, comme
un rappel d’un très lointain passé qui vit s’affronter deux types d’humanité – Néandertal finissant par se fondre dans Cro-magnon. Un surhomme semble en passe de devenir le nouvel horizon de l’humanité. Très tôt annoncé par les auteurs de fiction, en littérature (BD comprise) ou au cinéma, l’Homme augmenté a été théorisée dès 1960 par Manfred Clynes, musicien et scientifique, qui créa le terme composite à succès de « cyborg » (pour cybernetic organism). Mais une nouvelle étape s’ouvre en 2002 avec la publication du rapport « Technologies convergentes pour l’amélioration de la performance humaine » de la National Science Foundation (NSF), laquelle nous a familiarisé avec l’acronyme NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives). Ce cocktail technologique change tout et n’arrête pas de produire de surprenantes évolutions qui nous émerveillent toujours autant qu’elles nous inquiètent. Le champ d’applications semble sans limite.

« Le transhumanisme annonce une post-humanité
aux capacités physiques et psychiques illimitées. »

Il s’est d’abord agit de réparer l’Etre humain en lui faisant bénéficier de solutions de plus en plus nombreuses : prothèses sophistiquées capables de transformer des infirmes en champions olympiques ; exosquelettes robotisés commandés par la pensée permettant à un adolescent paraplégique de donner le coup d’envoi du Mondial de foot de 2014 ; neuro-prothèses soignant des dépressions graves ou transférant des morceaux de mémoires d’un endroit à un autre du cerveau ; oreille bionique réalisée
en impression 3D par une équipe de Princetown pour une audition retrouvée pouvant aller au-delà des fréquences habituelles, … Chaque semaine, de nouvelles avancées repoussent les limites du possible. A tel point que les miracles des Livres Saints, qui ont émerveillé tant de générations, sont aujourd’hui en passe de devenir notre lot quotidien ! Très vite, on est passé à l’Homme augmenté en apportant d’abord une aide précieuse à des professions difficiles : les applications militaires sont en ce domaine aux avants postes, comme il se doit, et servent même de laboratoires permanent ; les bras articulés ont envahi les chantiers ; les micro-capteurs sous-cutanés donnent l’alerte dans les environnements hostiles ; les stimulants cérébraux relancent une attention défaillante, … Le grand public commence à avoir accès à ces technologies en passe
de se banaliser, même si on n’est encore loin de mettre en pratique les expériences lancées dès les années 2000 par Kevin Warwick, professeur de cybernétique, visant à implanter des puces RFID dans le cerveau pour passer outre le langage ! Certains y voient une nouvelle Renaissance : un nouvel âge des lumières porté, non plus par un humanisme qui considérait que l’Homme est en possession de capacités intellectuelles potentiellement illimitées, mais par un transhumanisme qui annonce une posthumanité aux capacités physiques et psychiques illimitées. Cette posture fut affichée très tôt par des mouvements revendiquant la liberté individuelle de se transformer, certains ayant
à leur tête de véritables gourous, d’autres des performeurs mais également des scientifiques visionnaires. Parmi ces derniers, Ray Kurzweil, fondateur en 2008 de la Singularity University financée par Google, annonce l’avènement – vers 2060 – d’une intelligence artificielle supérieure à celle de l’Homme. De quoi renouveler les débats légitimes sur les limites éthiques et philosophiques de ces mutations.
Espérons que cet Homme augmenté, qui nous effraie autant qu’il nous fascine, sera indulgent avec son ancêtre non transformé. Un Homme « naturel » qui, apparaissantîtrait à ce surhomme comme « diminué », pourrait écrire telun Villon des temps modernes : « Frères transhumains qui après nous vivez, n’ayez les cœurs contre nous endurcis, … ». @

Jean-Dominique Séval*
Prochaine chronique « 2025 » : Le livre
* Directeur général adjoint de l’IDATE, auteur du livre
« Vous êtes déjà en 2025 » (http://lc.cx/Broché2025).

Montres et lunettes connectées

Parmi la liste sans cesse plus longue de nos objets connectés, deux méritent une attention particulière. Ils
nous sont très familiers et nous accompagnent depuis si longtemps, tout en se transformant au fil des siècles. La montre et nos lunettes font en effet partie de ces objets qui ont su se rendre indispensables et s’adapter. L’année 2013 marqua de ce point de vue un tournant intéressant, même si nous considérons aujourd’hui que ce fut en fait leur chant du cygne. Le début de la première décennie de ce siècle fut pourtant marqué par une série d’innovations portées par la vague montante de l’Internet des objets. Google ouvrit le bal par l’annonce fracassante de ces fameuses « Glass », présentées comme le complément indispensables de nos smartphones qu’il n’était plus alors nécessaire de sortir tout le temps de sa poche. Un terminal d’un nouveau genre qui demanda quelques années de développement avant d’être mis sur le marché en 2014. Avant même d’être disponibles, un écosystème complet se mit en place autour de nombreux services de Google (recherche, prise de photos, tournage de vidéos, lecture
ou diction d’e-mails, suivi d’itinéraires, …).

« Alors que la famille des “wearable
communication devices” ne cesse de s’agrandir,
les lunettes et les montres, connectées ou pas,
disparaissent peu à peu. »

Devant la révolution annoncée, un an avant la sortie officielle, Facebook et Twitter parmi beaucoup d’autres, s’invitèrent dans les lunettes connectées de Google, en proposant des applications complémentaires (comme l’ajout dans son fil d’actualité de photos prises directement avec les lunettes). Au même moment, le Congrès des Etats-Unis demandait
à Google des explications sur la manière dont seraient gérées les données personnelles et surtout, si la question de la protection de la vie privée de personnes susceptibles d’être filmées à tout moment, à leur insu, était bien prise en compte. Certains n’attendirent même pas leur lancement pour les interdire, comme certains casinos de Las Vegas, certains bars ou certaines salles de cinémas.
Ce nouvel écran, qui a popularisé les applications de réalité augmentée, a bien sûr aiguisé les convoitises. Alors que Google misait sur un rythme d’introduction de ses lunettes très progressif afin de tenir compte des réticences éventuelles, les concurrents ce sont très vites lancés dans son sillage : L’américain Microsoft, le japonais Sony, le chinois Baidu, … De nombreuses start-up tentèrent de proposer des alternatives sur ce marché naissant, comme les deux français Optivent et Laster Technologies ou les nord-américains Telepathy One et Vuzix M100.
Toujours en 2013, un autre front fut ouvert par le lancement d’une nouvelle génération de montres connectées qui s’arrogèrent rapidement 10 % des 45 milliards d’euros du marché mondial annuel des montres traditionnelles quelque peu déstabilisé. L’offensive fut générale : Samsung, Sony, LG, Google ou encore Apple proposèrent tout à tour
leurs modèles. Comme un smartphone qui permet également de téléphoner, les
« smartwatches » donnent encore l’heure, mais offrent de nombreuses fonctions comme lire ses SMS et ses e-mails, consulter son agenda ou mesurer son activité sportive.
Face aux géants, certains innovèrent en explorant de nouveaux modèles de financement, comme Pebble qui lança sa montre grâce à des fonds mobilisés sur la plate-forme de financement participatif Kickstarter.Alors que la famille des « wearable communication devices » ne cesse de s’agrandir, il faut bien constater que les lunettes et les montres, connectées ou pas, disparaissent peu à peu. Certes, pour créer de nouveaux objets, les designers s’accrochèrent à nos références passées, comme un passage obligé, mais aussi pour les faire accepter plus facilement par leurs futurs utilisateurs. Les premières automobiles ne ressemblaient-elles pas à des calèches sans chevaux ? Mais aujourd’hui, nos nouveaux terminaux s’affranchissent de nos anciens modèles, sauf pour quelques nostalgiques ou collectionneurs. Ces équipements de tous les jours qui nous collaient à la peau se font oublier, disparaissent, en bénéficiant des dernières avancées des nanotechnologies. L’habitude de lire le temps au poignet ou de mettre une paire de lunettes s’est perdue au profit de l’heure à la demande et de la chirurgie ophtalmologique corrective. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Offres de musique en ligne
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut a publié son rapport
« Internet des objets 2013-2017 », par Samuel Ropert.