Cédric O, porte-voix « French Tech » d’Emmanuel Macron, est secrétaire d’Etat chargé du Numérique depuis 6 mois

Cédric O fut le coorganisateur de la soirée « French Tech » à Las Vegas en 2016, événement qui donna le coup d’envoi de la campagne présidentielle d’Emmanuel Macron. Depuis plus de 6 mois maintenant, l’ancien trésorier d’En marche (devenu LREM) est au pouvoir et pousse les feux sur le numérique et surtout les start-up.

Six mois maintenant qu’il est à Bercy où il a remplacé Mounir Mahjoubi. Cédric O (photo) est l’un des plus jeunes (36 ans) membres du gouvernement, secrétaire d’Etat chargé du Numérique auprès du ministre de l’Economie et des Finances (Bruno Le Maire) et du ministre de l’Action et des Comptes publics (Gérald Darmanin). Ce portefeuille « par délégation », il l’a remporté à la faveur de l’élection présidentielle d’Emmanuel Macron, qui fut lui-même ministre de l’Economie, de l’Industrie et du Numérique (août 2014 à août 2016). Comme Mounir Mahjoubi, Cédric O a été désigné par le locataire de l’Elysée en raison de son engagement politique à ses côtés lorsque ce dernier était candidat aux plus hautes fonctions de l’Etat. Proche conseiller d’Emmanuel Macron, Cédric O a remplacé le 31 mars dernier Mounir Mahjoubi, lequel venait de quitter le gouvernement en vue de se porter candidat aux élections municipales à Paris en 2020 – la macronie ayant finalement préféré investir Benjamin Griveaux. Mais Mounir Mahjoubi avait entre temps retrouvé son siège de député de Paris (1) où il avait été élu en juin 2017, avec comme suppléante une certaine… Delphine O, la soeur cadette de Cédric O.

Celui qui murmure « digital » à l’oreille de Macron
Celle-ci est devenue députée au moment où Mounir Mahjoubi fut de mai 2017 à mars 2019 le « Monsieur numérique » du gouvernement. Redonnant alors son siège de députation à Mounir Mahjoubi en avril 2019, Delphine O intègre le ministère de l’Europe et des Affaires étrangères et est nommée le mois suivant ambassadrice, secrétaire générale de la conférence mondiale de l’Organisation des Nations unies (ONU) sur les femmes depuis juin dernier. Son frère, lui, a profité de ce jeu de chaises musicales en étant nommé secrétaire d’Etat chargé du Numérique. Concours de circonstance ou népotisme ? Quoi qu’il en soit, les deux O, nés d’une Française et d’un Coréen, ne manquent pas d’entregent. Diplômé de HEC Paris en 2006, Cédric O est attiré par la politique et fera partie – avec notamment Benjamin Griveaux – de l’équipe de campagne de Dominique Strauss-Kahn pour la primaire PS de 2006 en vue de l’élection présidentielle à l’époque. Il participe en outre à la création du Continuer la lecture

Le français Archos a vraiment du mal à s’en sortir

En fait. Le 3 octobre, Archos, le fabricant français de smartphones et tablettes,
a publié via l’AMF son document de référence annuel, ce qu’il n’avait pas fait depuis… 2011. Ce rapport financier porte sur trois ans et le 1er semestre 2018.
Il illustre la difficulté de faire du « made in France » high-tech.

En clair. Archos – anagramme de « Crohas », du nom de son fondateur Henri Crohas, actuel président du conseil d’administration et son premier actionnaire (6 % du capital et 11,2 % des droits de vote), mais aussi « maître » en grec () – est mal en point pour ses trente ans. La capitalisation boursière de l’entreprise française de smartphones et tablettes – fabriqués en Chine pour le compte d’« Archos Chine » (1) – n’a cessé de dégringoler ces dernières années pour ne peser aujourd’hui qu’à peine 22,5 millions d’euros (au 12-10-18). Le document de référence 2018 publié début octobre montre une PME exsangue : sur les six premiers mois de l’exercice en cours, les pertes nettes atteignent 5 millions d’euros, soit presque autant que durant toute l’année 2017 (6,4 millions d’euros de pertes nettes). Tout en creusant son déficit, l’entreprise du « Steve Jobs auvergnat » – dixit Challenges il y a dix ans dans son classement des grandes fortunes françaises (2) – a vu son chiffre d’affaires fondre au fil des années, passant de son plus haut niveau de 171,4 millions d’euros en 2011 – unique année positive avec 5,6 millions de bénéfice net – à seulement 114,1 millions en 2017 (-26,1 % sur un an). Le premier semestre de cette année montre un recul des revenus de 35,8 % en un an, à 32,2 millions d’euros, ne laissant rien augurer de bon pour cette année. L’endettement d’Archos atteint, lui, 25 millions d’euros (3). Le 1er mai 2013, Henri Crohas avait dû laisser la direction générale de son entreprise à Loïc Poirier, après 38,7 millions d’euros de pertes l’année précédente. Les déboires de cette PME française, basée à Igny (Essonne), illustrent les difficultés d’être un « fabricant français » de smartphones, viable et pérenne, sur un marché mondial dominé par Samsung, Apple, Sony, LG et
les chinois Huawei, Oppo ou Xiaomi. Leur puissance de feu, sur fond de guerre des prix, a été écrasante pour Archos.
Sa diversification surprenante semble être une fuite en avant : dans les trottinettes et vélos électriques depuis février 2017, dans les portefeuilles de cryptomonnaies depuis juillet 2018, et dans les assistants vocaux à écran – avec l’intelligence artificielle de Google Assistant depuis fin septembre et, à partir de janvier 2019, d’Amazon Alexa.
« L’objectif de la société est de réaliser environ 50 % de son chiffre d’affaires en 2020 sur les deux nouveaux piliers “Intelligence artificielle” et “Sécurité des transactions Blockchain” », indique le document de référence. @

Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

L’intelligence artificielle (IA) – qui regroupe plusieurs technologies dont l’apprentissage machine (ou apprentissage automatique, en anglais machine learning) – est
une forme avancée de logiciel.
Un logiciel est simplement un ensemble de programmes destiné à faire fonctionner un système informatique. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut-il traiter l’IA différemment ?

Bon équilibre entre sécurité, prix et utilité
Examinons d’abord la question de la responsabilité civile. Sur le plan économique, les règles de responsabilité civile sont destinées à encourager le déploiement de nouvelles technologies, tout en s’assurant que ces technologies s’entourent de mesures de sécurité adéquates. Si les règles de responsabilité sont trop strictes, certaines technologies utiles pour la société ne seront pas déployées. Si les règles de responsabilité sont trop laxistes, la technologie créera des dommages pour la population dépassant largement les bénéfices de la technologie. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologie utile mais relativement dangereuse car responsable de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmenterait sensiblement son prix ! Comme pour la voiture, le défi pour l’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système d’IA – par exemple, un constructeur automobile ou une banque – sera incitée par les règles de responsabilité civile à s’assurer de la sécurité du système. L’une des particularités des systèmes d’apprentissage machine est leur utilisation de données d’entraînement. Le concepteur du modèle d’apprentissage fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit-il d’un défaut dans le modèle d’origine, ou est-ce que l’anomalie provient des données d’apprentissage de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système d’IA de préciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabilité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligent grâce aux données d’entraînement ; le propriétaire des données d’entraînement pourrait donc exiger une rémunération. Les contrats devront également prévoir des dispositions pour garantir que le modèle amélioré ne peut pas indirectement révéler des données confidentielles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraînement. Entre les entreprises, la plupart des questions de responsabilité seront régulées par contrat. Les décisions d’un système d’apprentissage automatique sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’application des règles de responsabilité civile et pour la régulation en général – les tribunaux, experts et régulateurs doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabilité à l’acteur approprié. De nombreux travaux sont actuellement consacrés aux problèmes de la transparence et de l’« auditabilité » des algorithmes, à l’« explicabilité » et à la responsabilisation (accountability) des décisions IA (1). Ces travaux ne font pas consensus. Sur le thème de la transparence et de l’auditabilité des algorithmes, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétaire qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparent et audité de manière à découvrir l’origine des erreurs,
et à pouvoir les corriger. La chancelière d’Allemagne, Angela Merkel, a récemment plaidé pour la transparence des algorithmes.

L’Europe veut de la transparence
En Europe, la transparence est également au cœur du règlement général sur la protection des données (RGPD) qui énonce que pour les décisions automatisées basées sur des données personnelles et qui créent des effets juridiques, les individus ont droit à « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement ». Le deuxième camp considère que l’idéal de transparence n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithmes sophistiqués (réseaux de neurones), et d’autre part, que rendre transparents les algorithmes menacerait à terme les investissements et briserait les secrets. En France, la Commission nationale de l’informatique et des libertés (Cnil) a semble-t-il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithmes. Sur le thème de la discrimination ensuite, les débats également sont animés.

Secret, discrimination et responsabilité
Des travaux récents aux Etats-Unis ont montré que des algorithmes étaient biaisés envers certaines catégories de personnes, et conduisaient donc à des discriminations. L’originalité du préjudice vient cependant d’un problème nouveau lié à l’IA : les algorithmes ont appris à discriminer à partir de données d’entraînement qui étaient biaisées, ou par simple association
de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc.
Les algorithmes n’ont pas intentionnellement discriminé : dès lors qui est responsable ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimination (non-intentionnelle) sans un accès à l’algorithme ?
Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologie IA a produit le résultat ? Dernière question liée au cas particulier d’un algorithme causant une discrimination : comment corriger une discrimination sur le genre, par exemple, s’il est impossible de collecter des informations personnelles sur le genre (du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut-il créer une personnalité juridique pour les systèmes d’IA ? Pour que
la responsabilité civile puisse fonctionner, il faut identifier une personne responsable, et cette personne devra disposer de suffisamment de ressources ou d’assurances pour dédommager les victimes. En matière d’IA, la personne responsable sera généralement l’entreprise qui exploite le système – la banque ou le constructeur automobile par exemple. Cette personne sera généralement responsable en première ligne, et se retournera ensuite contre ses fournisseurs du système IA en amont. L’entreprise exploitante sera généralement assurée contre les risques de responsabilité civile, et vérifiera que ces fournisseurs en amont le sont également. La création d’une personnalité juridique pour les systèmes d’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilité de la personne morale responsable, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétaire du navire sera généralement insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuellement la recherche d’autres personnes morales responsables à travers des théories de responsabilité indirecte (vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de l’IA ? Deux points de vue s’opposent. Selon le premier point de vue, l’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économiques et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateurs sectoriels. Selon l’autre point de vue, les risques de l’IA sont étroitement liés à chaque type d’exploitation, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de l’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques
de l’IA dans les voitures autonomes.
Un super-régulateur de l’IA ne rajouterait rien par rapport aux régulateurs sectoriels spécialisés, et pire, créerait une couche de régulation potentiellement en friction avec la régulation sectorielle. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologies en mouvement. Comme un médicament, une régulation peut créer des effets secondaires imprévus (2). La régulation de l’Internet a évolué de manière progressive en s’appuyant sur la législation existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligence artificielle »,
il faudrait privilégier une série d’améliorations de la réglementation existante. Les normes ISO (3) en matière de sécurité des véhicules sont déjà en cours de modification pour intégrer l’IA (4). Le régulateur américain de la santé, la Food & Drug Administration (FDA), a développé des procédures pour homologuer des dispositifs médicaux utilisant l’IA (5). Le seul problème lié à cette approche sectorielle est l’apparition de risques cumulatifs pour la société qui échapperaient à la vigilance des régulateurs sectoriels. Est-ce que la généralisation de l’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutions démocratiques ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateurs sectoriels.

Observatoire des effets de l’IA sur la société ?
Un récent rapport de la fondation World Wide Web (6) prend l’exemple
des « fake news » propagées à travers les réseaux sociaux : quelle structure faut-il mettre en place pour changer les incitations des acteurs à communiquer des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsables ? La Commission européenne favorise en premier lieu des solutions d’auto-régulation pour limiter l’impact de la désinformation sur la société. La surveillance de ce type de risque plus diffus pourrait être confiée à une institution dédiée – une sorte d’observatoire des effets de l’IA sur la société. L’objectif de cette institution serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut-il définir les indices ! @

Justice prédictive et « boîtes noires » : qui gardera les algorithmes dans notre démocratie numérique ?

Le prédictif — à grand renfort d’intelligence artificielle et d’algorithmes — nous apporte un nouveau type de connaissances. Mais il faut identifier les possibles effets pervers de « la boîte noire » et éviter que la justice prédictive ne devienne une justice « performative » ou « auto-réalisatrice ».

Fabrice Lorvo*, avocat associé, FTPA.

Le rapport Villani (1) sur l’intelligence artificielle (IA) – laquelle est, rappelonsle, le fait de créer des processus cognitifs comparables à ceux de l’être humain – préconise que la France avec l’Europe devienne un leader mondial de l’intelligence artificielle. Il s’agit de donner un sens à cette intelligence, qui doit seconder et non remplacer l’intelligence humaine.

 

Prédire jusqu’aux comportements humains
L’essor de l’IA est irrémédiable car il constitue a priori, aux yeux de tous, un progrès. Cette évolution technologique ne doit cependant pas nous faire oublier l’expérience acquise et la relativité du progrès, lequel peut apporter une amélioration immédiate puis être aussi porteur à plus long terme d’effets extrêmement néfastes sur les humains. L’amiante en est un exemple topique. Vanté au début du XIXe siècle pour ses vertus techniques, utilisé à outrance notamment pour la reconstruction d’aprèsguerre, il est apparu postérieurement que les effets à long terme de ce type de minéral à texture fibreuse étaient létaux pour l’homme.
Outre ce caractère irrémédiable, force est de constater que le progrès numérique (2) est ambivalent, c’est-à-dire qu’il amplifie à la fois des effets positifs comme des effets négatifs, et qu’il est difficile de tenter de corriger les effets négatifs sans impacter les effets positifs. L’IA n’échappe donc pas à des réserves. Ce nouveau type d’intelligence et de connaissance — avec l’ingénierie inversée (3) — offre des possibilités multiples, et l’on se prend à rêver d’un algorithme permettant de lutter contre, par exemple, le piratage sur Internet ou les contenus illicites en lignes. Nous nous intéresserons uniquement à la justice prédictive. On peut distinguer deux grands types de débouchés possibles : prédire les décisions de justice (sur la base des décisions de justice rendues dans le passé) ou prédire les comportements humains individuels à venir. Cette dernière catégorie concerne principalement l’aspect pénal de la justice. Elle est déjà utilisée depuis plus de dix ans aux Etats-Unis pour mesurer les risques de dangerosité ou de récidive d’un individu. En principe, en France, une telle utilisation n’est pas possible dès lors qu’elle est interdite par la loi. Cette interdiction doit cependant être nuancée car si la loi « Informatique et Libertés » de 1978 interdit que les décisions de justice impliquant une appréciation sur le comportement d’une personne soient prises par des algorithmes (4), la jurisprudence limite l’interdiction à l’exclusivité du fondement de la décision, considérant ainsi que ladite loi n’a ni pour objet ni pour effet d’interdire
à la juridiction de prendre en compte, parmi d’autres éléments d’appréciation, les résultats d’un tel traitement (5). Une étude parue en janvier 2018 dans Science Advances (6) démontre que le logiciel d’évaluation des risques Compas (7), commercialisé par une société privée américaine (Northpointe) et largement utilisé
par — selon cette société — l’équipement de 200 systèmes de justice pénale aux
Etats-Unis et au Canada, n’est pas plus précis ou équitable que les prédictions faites par des personnes ayant peu ou pas d’expertise en justice pénale. Cette étude démontre en outre qu’avec beaucoup moins d’informations que Compas (seulement
7 critères comparés aux 137 du questionnaire de Compas (8)), une petite foule de personnes inexpérimentées est aussi précise que Compas pour prédire la récidive.
A priori et à ce jour, les algorithmes prédictifs n’ont pas démontré une suprématie
par rapport à la décision humaine en termes d’efficacité. En France, par exemple, le Conseil d’Etat cite un rapport de l’Institut Montaigne publié en 2017 et intitulé « Justice : faites entrer le numérique », selon lequel « le taux actuel de sûreté des algorithmes prédictifs en droit ne semble pas, en l’état, excéder 70 %, ce qui n’est pas si élevé et
ne saurait fonder des certitudes » (9). A l’inverse, de tels algorithmes sont critiqués car sujets à de nombreux biais cognitifs principalement des biais sexistes, raciaux et de classes sociales (10).

Boîte noire et secret des affaires : risques
Outre l’efficacité relative des algorithmes, au moins deux critiques essentielles doivent être conservées à l’esprit en matière de justice prédictive, à savoir, le syndrome de
« la boîte noire » et le risque de « performativité » de la justice. Pour la boîte noire,
il ne s’agit pas ici de celle de l’aéronautique (qui est en fait orange) mais bien de la représentation d’un système sans comprendre son fonctionnement interne. Les codes sources des algorithmes sont généralement incompréhensibles pour le commun des mortels, et confidentiels car couverts par le secret des affaires. Une des causes de cette opacité réside dans le fait que les algorithmes utilisés, notamment par le pouvoir régalien (justice, police, défense, etc.), nécessitent de tels investissements financiers qu’ils ne sont développés que par le secteur privé.

Transparence, intégrité et capacité de jugement
Outre les questions de souveraineté, lorsque le prestataire est d’une nationalité différente, se pose de manière prégnante la question du secret des affaires. On peut comprendre qu’une société privée souhaite conserver son avantage concurrentiel, fruit de ses investissements et du risque pris en R&D, en gardant secret le fonctionnement de ces algorithmes. A l’inverse, dès lors que lesdits algorithmes sont de nature à avoir un impact sur la liberté des citoyens, il est plus que légitime que de pouvoir comprendre la manière dont il fonctionne et de pouvoir vérifier l’intégrité et la pertinence du modèle. L’exemple magistral du scandale récent du « Dieselgate » a démontré qu’un algorithme pouvait être trompeur et que le résultat qui s’affiche à l’écran peut travestir la réalité.
De plus, il faut être en mesure de pouvoir vérifier la neutralité des algorithmes. Il se pose, là encore, la question de savoir si l’homme est prédictible et jusqu’où il peut être modélisé de manière mathématique. Les algorithmes peuvent implicitement se référer
à un concept d’homme idéal ou de norme socialement acceptable. Sans défiance particulière pour les mathématiciens et/ou ingénieurs du secteur privé, ce type de questions relève du débat de société et l’établissement de telles normes – qui constituent déjà une sérieuse entorse à l’indispensable diversité humaine, sociale
ou culturelle – est de la compétence exclusive des pouvoirs publics, protecteurs de l’intérêt général et des droits fondamentaux. Reste aussi la question de la complétude, l’exactitude et l’intégrité de la base de données sur lequel les algorithmes vont travailler.
Cette nécessité de transparence et de compétences, ainsi que les problèmes éthiques induits que posent des algorithmes, a suscité diverses propositions qu’il convient de continuer à explorer. Le rapport Villani évoque « la constitution d’un corps d’experts publics assermentés en mesure de procéder à des audits d’algorithmes, des bases
de données et de procéder à des tests par tous moyens requis ». De même, le Québec a récemment proposé la création d’une « organisation mondiale de l’intelligence artificielle pour travailler sur les enjeux sociétaux et éthiques de cette technologie » (11). Une des grandes questions de la démocratie depuis l’Antiquité a été de savoir
« Qui gardera les gardes ? » ; celle de notre démocratie numérique sera probablement : « Qui gardera les algorithmes ? ». A la vitesse à laquelle l’intelligence artificielle progresse, tout cela ne constitue que des balbutiements et des ajustements temporaires, et que les algorithmes seront prochainement d’une grande fiabilité. Cet espoir n’est pas illusoire mais il est insuffisant. Ne négligeons pas le fait que le prédictif nous apporte un nouveau type de connaissances et qu’il nous faut en identifier les possibles effets pervers. Il faut avoir conscience et éviter que la justice prédictive ne devienne une justice performative ou auto-réalisatrice. En effet, si l’analyse des décisions passées permet de dégager une opinion majoritaire, il faut garder à l’esprit la possibilité que le juge soit influencé par ce résultat : soit qu’il renonce spontanément à sa liberté d’appréciation du fait de la quantité de jugements passés rendus dans un sens, soit qu’il ne souhaite pas prendre le risque de soutenir une position contraire.
En d’autres termes, le résultat produit par les algorithmes peut être de nature à s’imposer, volontairement ou non, au juge. Les algorithmes pourraient donc affecter la capacité de jugement des juges et/ou ôter à la jurisprudence son rôle qui permet de faire évoluer le droit en prenant en considération l’évolution de la société. Dans ces conditions, le règne des décisions passées serait de nature à empêcher toute variation dans le futur. Quant au juge, il pourrait sous la pression des décisions de ses prédécesseurs, réduire sa capacité de juger et limiter son rôle à celui de répétiteur du passé et non plus, de facilitateur de l’avenir.

Équilibre entre conviction et uniformisation
Un autre élément serait de nature à figer la jurisprudence, à savoir l’absence de prise en compte de la hiérarchie des décisions judiciaires qui sont pourtant de nature très diverse (première instance, appel ou de cassation). Cette hiérarchie a une fonction :
« Les arrêts des formations supérieures viennent poser, dans une navigation juridictionnelle parfois périlleuse, des phares et des balises aidant au repérage que la multitude des décisions d’espèce ne doit pas masquer » (12). Le risque, c’est que l’exploitation de ces décisions en ligne ne prenne plus en considération cette hiérarchie. Notre système judiciaire est le fruit d’un mécanisme d’horloger permettant un difficile équilibre entre l’intime conviction du juge et l’uniformisation de la jurisprudence. C’est un titanesque défi de vouloir transcrire cet équilibre en une équation mathématique. @

* Auteur du livre « Numérique : de la révolution au naufrage ? »,
paru en 2016 chez Fauves Editions.

Audrey Azoulay face à la mise en oeuvre la Convention de l’Unesco de 2005 «dans l’environnement numérique»

Les « directives opérationnelles sur la mise en oeuvre de la Convention [de 2005] dans l’environnement numérique », approuvées à Paris en juin et entérinées en décembre 2017, font désormais parties des objectifs des Nations Unies à l’horizon 2030. A Audrey Azoulay maintenant de les mettre en musique.

La Française Audrey Azoulay (photo), directrice générale d’l’Unesco depuis novembre 2017, va maintenant devoir mettre en oeuvre « dans l’environnement numérique » la Convention de 2005 sur la protection et la promotion de la diversité des expressions culturelles. Plus de quinze ans après sa signature à Paris (le 20 octobre 2005) et dix ans après son entrée en vigueur il y a dix ans (le 18 mars 2007), la Convention de l’Unesco – ratifiée par 145 Etats et l’Union européenne (UE) – cherche à s’adapter à Internet et aux plateformes en ligne dominées par les GAFA, sous peine d’obsolescence.

« Feuille de route ouverte » à venir
Dans le cadre de la 11e session du Comité intergouvernemental de la Convention 2005, qui s’est déroulée mi-décembre (12-15), il fut plus que jamais question du numérique. Parmi les décisions prises lors de cette réunion au siège de l’Unesco à Paris, il est prévu que le secrétariat de l’Unesco établisse d’ici la prochaine session
« une feuille de route ouverte, comprenant une collection diverse de bonnes pratiques, pour la mise en oeuvre des directives opérationnelles sur la Convention dans l’environnement numérique ». Le projet de plan de travail pour les activités du comité de la Convention 2005 pour les années 2018 et 2019 fixe notamment les « activités pour mettre en oeuvre les directives opérationnelles sur la diversité des expressions culturelles dans l’environnement numérique », avec une « étude d’impact sur le commerce et la culture, la liberté d’expression artistique à l’ère numérique ». Autant
dire que l’Unesco avance à pas comptés pour mettre en phase son texte emblématique avec le monde digital qui l’entoure. Un pas décisif a bien été franchi en juin 2017
lors de la Conférence dite des parties (Etats ou organisations régionales d’intégration économique ayant ratifié la Convention telles que l’UE), qui est l’organe plénier et souverain de la Convention de l’Unesco et sous laquelle fonctionne le Comité intergouvernemental. Ont en effet été adoptées « les directives opérationnelles pour
la mise en oeuvre de la Convention au sein de l’environnement numérique » (1) qui présentent la voie à suivre pour le développement de politiques publiques dans ces différents domaines. La France, qui a été moteur dès 2013 dans l’élaboration de ces directives « numérique », comme l’avait révélé Edition Multimédi@ (2) (*) (**), avait présenté en 2015 avec le Canada – rejoints par la Belgique – « une directive opérationnelle transversale l’ère du numérique » (3).
Il s’agit pour ces directives opérationnelles désormais adoptées, entre autres
« principes directeurs », de : réaffirmer le principe de « neutralité technologique »
de la Convention ; réaffirmer le droit souverain des Etats de formuler, d’adopter et de mettre en oeuvre « des politiques et mesures en matière de protection et de promotion de la diversité des expressions culturelles dans l’environnement numérique » ; garantir, conformément au principe de la neutralité de l’Internet, « un traitement égal et non discriminatoire du trafic de données dans le cadre de la fourniture de services d’accès
à Internet et les droits des utilisateurs finaux » ; promouvoir un accès équitable et un échange équilibré des biens et services culturels dans l’environnement numérique,
« notamment par l’application de dispositions de traitement préférentiel pour les œuvres créées ou produites par des artistes et des professionnels de la culture, des entreprises et des organisations indépendantes issus des pays en développement » ; soutenir les mécanismes nécessaires à l’émergence d’industries culturelles et créatives dynamiques dans l’environnement numérique.
Il s’agit aussi d’assurer le renforcement des « systèmes de gouvernance de la culture dans l’environnement numérique » tels que la protection et la promotion de « la diversité des expressions culturelles dans l’environnement numérique », la promotion de « la diversité des médias dans l’environnement numérique », la mise en place de groupes interministériels sur les questions numériques qui rassembleront des représentants des ministères et institutions concernés (entre autres ceux en charge
de la Culture, de la Recherche, du Commerce, de l’Industrie, des Télécommunications et de l’Education), « et impliqueraient dans leurs travaux le point de contact de la Convention et les représentants de la société civile ».

Tenir compte des « nouveaux acteurs »
Les directives opérationnelles « numérique » précisent en outre que ces politiques et mesures devront viser à englober tous les domaines – création, production, distribution, diffusion, accès et jouissance – en tenant compte des changements profonds de la chaîne de valeur et de l’arrivée de nouveaux acteurs. « Ces directives s’adressent en priorité aux pouvoirs publics. Les organisations non gouvernementales, les industries culturelles et créatives des secteurs public et privé, y compris les plateformes mondiales numériques, les fournisseurs d’accès Internet (FAI) et les autres acteurs dans l’environnement numérique sont également encouragés à les suivre », est-il précisé en préambule du texte adopté en juin 2017. Mais ces directives opérationnelles « numérique » n’ont pas de caractère contraignant vis-à-vis non seulement des FAI nationaux mais surtout des GAFA mondiaux.

Aides et financements publics
Désormais parties intégrantes des objectifs de développement durable (ODD) des Nations Unies à l’horizon 2030 et de ses principes directeurs sur les droits de l’homme, ces directives opérationnelles « numérique » incitent les Etats et l’UE à « soutenir les nouvelles formes de créativité dans l’environnement numérique, incluant les pratiques artistiques interactives et en temps réel » via des politiques publiques et des systèmes de financement. Toujours au niveau de la création, il est demandé aux Etats et à l’UE de reconnaître et de valoriser le travail des créateurs dans l’environnement numérique en promouvant : une rémunération juste et équitable des artistes et professionnels
de la culture ; la transparence dans la répartition des revenus entre les distributeurs numériques, les FAI et les titulaires de droits, ainsi qu’entre les titulaires de droits ; l’accès à la bande passante nécessaire ; le respect et la protection des droits de propriété intellectuelle, en permettant la gestion collective, le cas échéant, et la négociation collective des droits numériques ; les systèmes de dépôt légal électronique pour documenter et archiver leurs œuvres.
Du côté de la production cette fois, les Etats et l’UE doivent s’efforcer de soutenir la modernisation des industries culturelles et créatives telle que la numérisation et l’incorporation d’outils technologiques dans les processus de production des industries culturelles et créatives, ou encore la promotion dans l’environnement numérique de nouvelles formes de financement des industries culturelles et créatives et de nouvelles formes de partenariat entre le secteur public et privé.

Pour la distribution/diffusion, les directives opérationnelles « numérique » prévoient que les Etats et l’UE s’engagent à soutenir la distribution des œuvres dans l’environnement numérique et à offrir des opportunités comme :
Encourager la diversité des médias numériques, y compris la multiplicité des distributeurs numériques de biens et services culturels et des acteurs du numérique (plateformes en ligne, FAI, moteurs de recherche, réseaux sociaux), tout en garantissant la visibilité et la déc-ouvrabilité des contenus culturels nationaux et locaux.
Promouvoir le dialogue entre opérateurs privés et autorités publiques afin de valoriser une plus grande transparence dans la collecte et l’utilisation des données qui génèrent des algorithmes, et encourager la création d’algorithmes qui assurent une plus grande diversité des expressions culturelles dans l’environnement numérique et qui favorisent la présence et la disponibilité d’œuvres culturelles locales.
Développer le cadre juridique pour la distribution en ligne de biens et services culturels tel que la ratification des traités internationaux relatifs au droit d’auteur et aux droits voisins pertinents, des arrangements contractuels et des mesures de protection et de lutte contre la piraterie et le trafic illicite de biens culturels en ligne.
Promouvoir la coopération entre les plateformes en ligne (vidéo, audio et autres agrégateurs) et les titulaires des droits relatifs à ces biens et services (y compris des accords de licences et le déploiement d’outils techniques) pour améliorer la distribution en ligne des biens et services culturels et mieux trouver les contenus diffusés.
Enfin, au niveau de l’accès, les directives opérationnelles « numérique » exigent des Etats et de l’UE à instaurer une plus grande transparence et une meilleure lisibilité des modes d’indexation et de référencement des contenus afin que les mécanismes numériques (algorithmes de recommandation) qui déterminent les contenus disponibles pour les utilisateurs offrent un large éventail d’expressions culturelles diverses dans l’environnement numérique. Internet et les services en ligne sont en outre perçus comme un moyen de rééquilibrer les échanges de biens et services culturels comme
« mettre en place des dispositions de traitement préférentiel afin de faciliter des échanges plus équilibrés de biens et services culturels issus des pays en développement dans l’environnement numérique ».

GAFA, concentration et risques IA
La 11e session du Comité intergouvernemental de la Convention 2005 a aussi été l’occasion pour Audrey Azoulay de présenter le rapport mondial de l’Unesco 2018 intitulé « Re|penser les politiques culturelles » (4). Selon la directrice générale, « ce rapport met en lumière les cadres stratégiques les mieux adaptés à l’environnement numérique, et souligne l’émergence de plateformes d’échange (…) ». Dans un chapitre sur « les politiques culturelles à l’ère des plateformes numériques », l’Unesco prévient : « Le secteur public pourrait bien perdre le pouvoir dont il jouit sur la scène créative
s’il n’adopte pas une approche ciblée concernant l’émergence et la concentration
du marché des grandes plateformes numériques ou le monopole de l’intelligence artificielle ». @

Charles de Laubier

Œuvres et créations salariées : le droit d’auteur français manque cruellement de réalisme

Nombreux sont les salariés qui génèrent des droits d’auteur sans le savoir. Nombreux sont aussi les employeurs à commettre des actes de contrefaçon à leur insu, en exploitant ces créations sans avoir eu l’autorisation préalable de leurs salariés. Or le droit français gagnerait à plus de réalisme.

Marie-Hélène Tonnellier, Hervé Castelnau et Corentin Pallot – Latournerie Wolfrom Avocats

La méconnaissance des raffinements de notre droit d’auteur par le salarié, voire par son employeur, permet le plus souvent de préserver ce fragile équilibre. Mais la naissance d’un litige entre ceux-ci peut s’accompagner d’une prise
de conscience par le salarié de l’illicéité éventuelle de l’exploitation faite par son employeur, avec des conséquences parfois très regrettables pour ce dernier.

Entreprise et clauses de cession
Imaginez par exemple qu’un designer salarié d’un éditeur ou distributeur de meubles sollicite d’un magistrat le retrait de tous les magasins d’un produit qu’il aurait dessiné ? Ou que le salarié ayant créé le logo de son entreprise obtienne l’interdiction pour celle-ci, sous astreinte financière, d’en faire usage ? Voire, pire encore, que ce logo n’ait pas été dessiné pour son employeur, mais pour le client de ce dernier ?! Ces situations sont en réalité bien moins théoriques qu’elles n’y paraissent. Et le droit de la propriété intellectuelle français, plutôt que d’offrir des mécanismes légaux de sécurisation
des entreprises, semble au contraire tout faire pour rendre la situation ingérable. La difficulté tient au fait que le droit d’auteur prétend à la fois offrir un très haut niveau de protection à tous les auteurs de créations de l’esprit, et respecter le principe d’« unité de l’art » qui rejette toute discrimination selon la destination des œuvres (artistiques, industrielles, etc.). La conséquence est que des créations ayant principalement vocation à naître au sein d’entreprises, comme une essoreuse à salade (1), un bâtonnet d’engrais (2) ou une cabine de douche (3), génèrent aujourd’hui les mêmes droits d’auteur qu’un ouvrage de poésie ou un opéra, et que leurs auteurs bénéficient des mêmes prérogatives. C’est pourquoi tout salarié à l’origine de la création d’une oeuvre protégée demeure titulaire des droits d’auteur sur celle-ci, tant qu’il ne les a pas expressément cédés à son employeur. Ainsi, la seule conclusion d’un contrat de travail n’emporte en aucune manière dévolution des droits d’auteur à l’entreprise, contrairement, par exemple, aux droits sur les inventions brevetables ou sur les œuvres dites collectives. Encore que, s’agissant des œuvres collectives, les tribunaux, peut-être par défiance et dans le souci de protéger la personne physique présumée plus faible, rejettent bien souvent cette qualification, faisant preuve d’une approche particulièrement restrictive.
Mais alors, ne suffit-il pas de prévoir une clause de cession globale des droits d’auteur dans le contrat de travail ? Ce serait oublier que le droit d’auteur prohibe expressément la cession globale des œuvres futures (4) ; ce qui signifie qu’un auteur ne peut pas céder à l’avance ses droits sur toutes les œuvres qu’il est censé réaliser, alors que précisément celles-ci n’existent pas encore (5). En cherchant encore ici à protéger les auteurs, le code de la propriété intellectuelle (CPI) place l’entreprise dans une position particulièrement inconfortable, puisqu’il empêche l’entreprise de demander par avance à son salarié de lui céder les droits sur ses créations, quand bien même celles-ci seraient le fruit de la mission pour laquelle l’employé a été embauché !
Les juristes ont donc dû faire preuve d’astuce et d’inventivité pour contourner cette difficulté. C’est ainsi que les contrats avec les créateurs salariés les plus sensibles (designers, rédacteurs, compositeurs, etc.) doivent impérativement contenir une clause de cession – respectueuse d’un lourd formalisme légal. L’identification des œuvres cédées oblige dans les faits en principe le salarié et l’employeur à se réunir périodiquement pour lister les œuvres créées pendant la période écoulée et énoncer expressément la cession des droits sur celles-ci. Certains employeurs – les plus précautionneux – peuvent même décider de faire sortir du contrat de travail la question des droits d’auteur, et de conclure un contrat cadre de cession de droits, complété régulièrement par des contrats d’application listant les créations du salarié.

Préférer la contrepartie financière
Si ces solutions permettent de sécuriser l’employeur sur la question de la prohibition de la cession globale des œuvres futures, non seulement elles se révèlent souvent assez lourdes à appliquer au quotidien, mais il ne s’agit pas de la seule difficulté juridique à surmonter.
La question de la contrepartie financière de la cession se pose (ou devrait sérieusement se poser) également à l’employeur. Si le CPI prévoit la possibilité de céder à titre gratuit des droits d’auteur (6), il est vivement conseillé de prévoir une contrepartie financière, d’abord parce que la gratuité fait toujours peser un risque de contestation sur le cessionnaire des droits, ensuite parce que la cession des droits d’auteur étant soumise à un régime fiscal et social avantageux, il est possible pour l’employeur d’en tirer un bénéfice réel.

Insécurité juridique pour l’employeur
En pratique, la cession des droits d’auteur prend le plus souvent la forme d’une proportion du salaire versé. Cela se traduira, dans la clause de rémunération du contrat de travail, par une mention expresse, indiquant par exemple qu’« il est expressément convenu entre les parties que 10% de la rémunération versée mensuellement au salarié correspond à la contrepartie de la cession des droits d’auteur sur les créations protégeables réalisées par le salarié dans le cadre de l’exécution du présent contrat de travail ». Mais là-encore, des risques de contestation demeurent. Déjà, parce que la cession forfaitaire des droits est soumise à la règle de la rescision pour lésion des sept douzièmes (7), qui permet au cédant de « provoquer la révision des conditions du prix du contrat » dans l’hypothèse où la contrepartie convenue dans le contrat de travail se révèlerait disproportionnée par rapport à sa valeur réelle. Ensuite, parce que le choix de rémunérer forfaitairement la cession pourra – selon la nature des œuvres créées et surtout selon leurs conditions d’exploitation – être contesté a posteriori par le salarié dans la mesure où, par principe, la rémunération doit être « proportionnelle aux recettes provenant de la vente ou de l’exploitation de l’oeuvre » (8). Ces difficultés auxquelles sont confrontés les employeurs montrent combien notre droit manque aujourd’hui cruellement de réalisme dans le traitement des droits d’auteur sur les œuvres salariées. Il s’avère donc impératif d’accorder un soin particulier à cette question lors de la rédaction des contrats de travail (ou d’accords ad hoc), afin d’assurer le transfert des droits – sans pour autant d’ailleurs que ces précautions ne permettent de garantir à
100 % la sécurité juridique de l’employeur. On pense ici notamment à la faculté que conserve toujours le salarié d’opposer son droit moral au respect de l’oeuvre (un droit imprescriptible et inaliénable), une arme qui se révèle parfois redoutable et en tout état de cause bien difficile à encadrer à l’avance par contrat.
Le législateur pourrait pourtant, sans grande difficulté, faire évoluer le droit d’auteur vers une solution économiquement plus réaliste et juridiquement sécurisante pour l’entreprise, comme on peut le voir dans d’autres pays. Notre réglementation présente d’ailleurs une approche bien plus pragmatique s’agissant des œuvres logicielles. En effet, les œuvres informatiques obéissent, à quelques détails près, au même régime légal de droit d’auteur que les autres œuvres de l’esprit. Mais lorsque le législateur a fait le choix de soumettre le logiciel à la réglementation du droit d’auteur (9), il a pris soin de préciser que le « logiciel créé par un ou plusieurs employés dans l’exercice de leurs fonctions appartient à l’employeur auquel sont dévolus tous les droits reconnus aux auteurs » (10), intégrant ainsi un mécanisme de dévolution automatique des droits au profit de l’employeur, en contradiction avec le régime de droit commun. De même, les sociétés de presse bénéficient d’un régime légal qui – s’il y a beaucoup de choses
à lui reprocher – permet tout de même de sécuriser ces employeurs s’agissant des principales exploitations des journalistes salariés.
Enfin, les esprits taquins ne manqueront pas de relever que l’Etat n’a pas non plus hésité à prévoir une exception lorsqu’il s’agit des droits sur les créations… des agents de l’Etat ! Le CPI prévoit en effet, certes dans « la mesure strictement nécessaire à l’accomplissement d’une mission de service public », que « le droit d’exploitation d’une oeuvre créée par un agent de l’Etat dans l’exercice de ses fonctions ou d’après les instructions reçues est, dès la création, cédé de plein droit à l’Etat » (11). Il est temps que dans un monde concurrentiel comme celui d’aujourd’hui, les entreprises françaises puissent aussi bénéficier d’une meilleure protection quant à la propriété des actifs immatériels qu’elles permettent de générer. Sauf s’agissant des logiciels, il n’existe malheureusement pas encore un droit d’auteur de l’entreprise qui permettrait à l’entité de détenir la propriété ab initio des droits sur toutes œuvres dont elle permet la création. Certes, sur le papier, l’oeuvre collective devrait répondre à ce besoin mais dans les faits, c’est une exception bien mal considérée. Les rapports sur le statut des œuvres de salariés ont certes fleuri dans les années passées, mais sans jamais permettre de trouver le moindre accord qui fasse évoluer notre droit. Pourtant le législateur a compris que, dans le monde industriel, l’entreprise devait être propriétaire des brevets auxquels ses salariés participaient à développer. Ils gardent le statut d’inventeurs qui leur est reconnu et leur nom est mentionné sur les actes officiels d’enregistrement, mais la propriété de l’invention revient légitimement à l’entreprise
qui a investi, rémunéré ses salariés et pris des risques.

Un frein à la révolution digitale
Peut-on accepter que la révolution digitale qui frappe notre économie avec le développement des plateformes de création collaborative, l’explosion des robots,
le développement époustouflant de l’intelligence artificielle, puisse être freinée par
des questions de droit d’auteur ? Car si le salarié peut certes prétendre à une juste rémunération pour son apport créatif, l’entreprise a un besoin vital de sécurité et de visibilité pour exploiter au mieux toutes les créations générées par ses investissements. @

Les assistants vocaux s’apprêtent à bouleverser l’accès aux contenus informationnels et culturels

Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri, … Les assistants vocaux vont redonner la main aux utilisateurs dans leurs recherches de contenus (musiques, films, infos, livres, jeux vidéo, …). Recommandations et marketing vont se retrouver court-circuités.

Les internautes vont donner de la voix, tandis que les industries culturelles risquent
de rester sans voix ! Les assistants vocaux virtuels – au premier rang desquels l’on retrouve Assistant (Google), Alexa (Amazon), Cortana (Microsoft), Siri (Apple) ou encore Bixby (Samsung) – vont non seulement transformer nos vies numériques
et nos objets du quotidien, mais aussi et surtout nous permettre d’aller directement
à l’essentiel et de façon explicite dans nos choix de contenus et de services en ligne.
Et ce, sans surfer sur le Web ni ouvrir moultes applis mobiles, et sans être la cible de publicités « ciblées » ou de recommandations « personnalisées » à tout-va.

Le glas sonore du Web et des applis ?
Notre voix et sa reconnaissance vocale deviennent la nouvelle interface avec Internet : exit le clavier (exigeant du doigté), la souris (fini le scrolling) et l’écran caviardé de suggestions et de promotions plus ou moins intempestives (adieu le surf). Est-ce la fin du Web et des applis mobiles ? Les métadonnées et les cookies – qui puisent leur force de persuasion dans les algorithmes pour nous influencer, voire nous détourner de notre besoin initial, dans le cadre d’opérations marketing ou de campagnes publicitaires – n’ont qu’à bien se tenir. Si les assistants vocaux font autant parler d’eux, c’est que ces systèmes à reconnaissance vocale de plus en plus fiables commencent à s’immiscer progressivement dans nos différents appareils familiers et dotés eux aussi de la voix pour nous répondre : smartphones, haut-parleurs connectés, téléviseurs, réfrigérateurs, équipements à domicile (1), voitures, … Mais c’est dans l’accès aux contenus culturels que le bouleversement pourrait être plus profond et non sans conséquences pour les industries culturelles.
Car l’intelligence artificielle (IA) d’un assistant vocal virtuel sera capable de nous trouver précisément la musique, le film, le livre, le jeu vidéo ou encore l’article de presse que nous recherchons à un instant T. Imaginez Netflix n’obéissant qu’à la voix de son maître (vous l’abonné) pour nous apporter la série et uniquement la série souhaitée (et rien d’autre) : c’est ainsi toute son architecture de recommandations à l’écran basée sur
des métadonnées et algorithmes qui devient… inutile. La conjugaison de l’IA et de l’interface vocale redonne le pouvoir aux internautes et mobinautes dans l’accès aux contenus culturels. Grâce au deep learning, ou apprentissage automatique, la recherche vocale court-circuiterait même de nombreux intermédiaires : moteurs de recherche, médias, éditeurs, prescripteurs, ou encore applications mobiles. Les assistants vocaux pourraient mettre en relation directement le consommateur et le producteur, le mélomane et le musicien, le lecteur et l’auteur, voire toute personne avec la source de l’information recherchée, etc. Ce serait un changement complet de paradigme pour le ecommerce en général (voice shopping) et les industries culturelles en particulier. Cette entrée de la maison et de la voiture dans l’ère du conversationnel n’en est qu’à ses tout débuts. Pour la recherche d’une chanson, par exemple, la reconnaissance musicale de nos enceintes connectées nous trouvera le bon morceau, à l’instar de Shazam, le moment voulu – comme le propose Siri d’Apple et bientôt Google Assistant. Les enceintes connectées Amazon Echo (leader du marché des haut-parleurs intelligents et multifonctions (2)), Google Home ou encore Apple HomePod, en attendant Samsung « Bixby Home », répondent déjà au doigt et à l’œil, … comprenez à votre voix !
Les films, séries et vidéos seront eux aussi commandés de vive voix, comme avec l’écran connecté Echo Show d’Amazon lancé en juin dernier. Le géant du e-commerce s’en est d’ailleurs pris en septembre à Google, accusé d’empêcher d’y regarder YouTube. Selon la société newyorkaise Future Today Institute, c’est en 2023 que la moitié des interactions des utilisateurs avec les contenus multimédias et services numériques se feront par la voix. Ne pas se préoccuper de ce nouvel écosystème à commande vocale pourrait être fatal aux industries culturelles. Par exemple, dans son étude « 2018 Tech Trends for Journalism and Media » publiée début octobre, cet institut parle même de « menace existentielle pour l’avenir du journalisme » (3).

La presse et la radio se mettent à l’audio
En France, le groupe Amaury a annoncé l’arrivée de L’Equipe sur Google Assistant pour smartphones et enceintes connectées. Le quotidien gratuit 20 Minutes (Schibsted) donne, lui, de la voix sur Amazon Echo. En audio : flash infos, jeux et podcasts. Le groupe Radio France, déjà partenaire sur Google Home, est tenté par l’audio d’Amazon Echo. Pour l’heure, ces écosystèmes vocaux sont incompatibles entre eux, exceptés pour Alexa et Cortana suite à un accord Amazon-Microsoft (lire EM@177, p. 2). La bataille du vocal débouchera-t-elle sur un standard international, gage d’interopérabilité pour que tout le monde se parle ? @

Charles de Laubier