A 170 ans, la Sacem n’a jamais été aussi fragilisée mais compte rebondir grâce aux droits d’auteur du numérique

Une nouvelle ère plus « streaming », « data », « blockchain » et même « métavers » ou « NFT » s’ouvre à la Société des auteurs, compositeurs et éditeurs de musique (Sacem). Cécile Rap-Veber, première femme à sa tête en 170 ans, devra aussi sortir de son déficit chronique cet organisme historique de la gestion collective.

Pour ses 170 ans, la Sacem n’est pas près de partir à la retraite ni de battre en retraite. Pourtant, la chute de ses recettes au cours de 2020 et 2021, années sévèrement impactées par les fermetures des lieux publics diffusant de la musique (salles de concert, festivals, discothèques, cafés, bars à ambiance musicale, magasins, salles de cinémas, hôtels, kermesses, …), met en péril cette société privée à but non lucratif créée en 1851. Sa santé financière était cependant déjà vacillante avant la pandémie de coronavirus, puisque la Sacem est déficitaire depuis trois années consécutives – quand bien même n’a-t-elle pas vocation à dégager des bénéfices ni à verser des dividendes à des actionnaires. Rien que pour l’année 2020, la « perte » s’est creusée de plus de 800 % sur un an, à près de 33 millions d’euros, ce que la société de gestion collective des droits musicaux appelle « l’insuffisance de prélèvements ». Mais ce n’est pas ce déficit-là (32,7 millions précisément) sur lequel la maison ronde de l’avenue Charles-de-Gaulle à Neuilly-sur- Seine a communiqué l’an dernier, mais sur un « un résultat de gestion négatif » de 26,8 millions d’euros, montant repris par les médias.

330 millions d’euros versés par les plateformes numériques en 2021
La différence non négligeable vient de la « réserve positive de 5,9 millions d’euros à fin 2019 » qui a permis de parvenir à un solde négatif moindre en fin d’exercice 2020. Cette « insuffisance de prélèvements » représente alors un pourcentage de 12 % des charges de la Sacem. Du jamais vu en 170 ans, d’autant que ses statuts prévoient que « le compte de gestion ne peut connaître (…) de déficit supérieur à 5 % du total des charges brutes ». Comme pour l’année 2020, la société de gestion collective des droits musicaux a dû décider, lors de son assemblée générale de juin dernier, d’y déroger aussi pour l’année 2021, dont l’ampleur du déficit n’est pas encore connue. « La crise a accentué la fragilisation de vos métiers et de vos revenus. Vous le savez, l’année 2022 restera une année difficile, puisque les droits d’auteur sont par nature versés en décalé et que nous subirons les pertes liées à l’absence de vraie reprise en 2021 », a déjà prévenu Cécile Rap-Veber (photo), nouvelle directrice générale-gérante de la Sacem, en s’adressant Continuer la lecture

Google Search, Google News et Google Discover : le quasi-monopole de la recherche d’actualités en ligne

L’injonction prononcée le 9 avril par l’Autorité de la concurrence contre Google – pour l’obliger à négocier avec la presse française une rémunération pour la reprise de ses articles – est l’occasion de faire le point sur Google Search, Google News et Google Discover dans le traitement de l’actualité.

« Nous nous conformerons à la décision de l’Autorité de la concurrence que nous sommes en train d’analyser, tout en poursuivant [l]es négociations », a fait savoir le jour-même du verdict dans un communiqué Richard Gingras (photo), vice-président chez Google, en charge des activités « News », que les actualités soient sur le moteur de recherche Google Search, dans l’agrégateur d’actualités Google News ou le fil Google Discover. La firme de Mountain View – Richard Gingras étant basé, lui, à moins de dix kilomètres, à Los Altos – est en train de passer au crible les 72 pages (1) de l’injonction du gendarme français de la concurrence, lequel doit encore rendre sa décision sur le fond.

La position dominante de Google
« Google est susceptible de détenir une position dominante sur le marché français des services de recherche généraliste. En effet, sa part de marché en nombre mensuel de requêtes est de l’ordre de 90 % à la fin de l’année 2019. Il existe, par ailleurs, de fortes barrières à l’entrée et à l’expansion sur ce marché, (…) de nature à rendre la position de Google difficilement contestable », relève d’emblée l’Autorité de la concurrence, dans sa décision rendue le 9 avril dans l’affaire du droit voisin de la presse, et en attendant sa décision au fond. Le numéro un mondial des moteurs de recherche, créé il y a vingt-deux ans, est massivement utilisé pour rechercher des informations, à commencer par le vaisseau amiral Google Search (2). Internautes et mobinautes y formulent leurs requêtes par mots-clés (un ou plusieurs) et obtiennent en moins d’une seconde des résultats qui peuvent être au nombre de quelques-uns ou de plusieurs millions, voire plusieurs milliards. Parmi eux se trouvent des liens d’actualités affichés sous une forme standardisée (3) qui fait apparaître le titre de l’information, le nom du site web référencé, un extrait de texte ou de l’article en question, et éventuellement une image miniature. Dans cette « éditoriali-sation » des résultats de recherche, Google désigne l’extrait de texte sous le terme anglais de snippet (extrait, en français). « Le terme snippet ne recouvre ni le titre, ni l’éventuelle image miniature apparaissant dans les résultats de recherche », précise Google. Au-delà de ces extraits, le moteur de recherche de la filiale d’Alphabet met aussi en avant l’actualité à travers un carrousel intitulé « A la Une » et dont les résultats défilent horizontalement à l’aide de petites flèches. Y apparaissent photos, titres et noms des journaux et/ou des sites web d’information, et indication du temps écoulé depuis la parution de chacune des actualités. En revanche, n’apparaissent généralement pas dans ce carrousel d’actualités des extraits de l’article. Pour figurer dans ce carrousel « A la Une », notamment sur smartphone, le contenu des éditeurs doit être disponible au format AMP (4) qui accélère l’affichage des pages web lorsqu’elles sont construites à l’aide de ce protocole (5) créé en 2015 et opérationnel depuis février 2016. Selon Google « l’utilisation du protocole AMP équivaut à donner son consentement à la “mise en cache” et à la prévisualisation des images de [plus ou moins, en fonction du choix de l’éditeur, ndlr] grande taille ». Dans la frise, cette fois, des onglets situés en haut de la page des résultats, l’un d’entre eux – le deuxième – est intitulé « Actualités » (ou « News ») et donnent accès à une liste de titres avec pour chacun une photo, le nom de l’éditeur, le temps écoulé depuis la mise en ligne et le fameux snippet de deux lignes.
En dehors de ce vaisseau amiral Google Search, le géant du Net a aussi lancé en 2002 Google News (sorti de sa phase bêta en 2006). Cet agrégateur d’actualités – accessible gratuitement à partir de news.google.com ou via les applications mobiles sous iOS et Android – est décliné dans plusieurs pays, dont la France avec « Google Actualités » (sorti de sa période de test en 2009). Contrairement à Google Search, Google News est dédié à l’actualité et se décline en quelque 80 versions locales du monde entier, qui s’affichent automatiquement en fonction de la langue et la région de l’utilisateur (6). En tête du service, se trouve la barre de recherche d’actualités par mots-clés pour « rechercher des sujets, des lieux et des sources ». L’utilisateur en outre visualiser dans la page Google News différentes sections thématiques.

Robots (bots), crawling et Big Data
Le point commun entre Google Search et Google News, c’est que ces deux services gratuits s’appuient sur le même index de Google. Cet index de plusieurs milliards de pages web est le nerf de la guerre de la firme de Mountain View, son fonds de commerce, sa raison d’être. Ce Big Data est constitué par une exploration – crawling – quotidienne du Web, à l’aide de robots d’indexation. Ces bots Internet naviguent systématiquement sur le World Wide Web pour indexer les contenus qui s’y trouvent. Google les stocke aussitôt sur ses plus de 2,5 millions de serveurs informatiques répartis sur la planète (7). Le protocole d’exclusion des robots – ou REP pour Robot Exclusion Protocol – permet aux éditeurs d’autoriser ou d’exclure des parties de leurs sites web aux robots d’exploration automatisés. Quant aux balises Meta, elles donnent aussi des instructions aux robots d’indexer ou pas des pages web, tandis que le « Publisher Center » permet aux éditeurs de gérer la présentation de leurs contenus dans Google News.

Loi « Droit voisin » en vigueur depuis 6 mois
Sur smartphones et tablettes, un autre service appelé Google Discover (ex-Google Feed) offre la possibilité aux mobinautes d’obtenir des informations en rapport avec ses centres d’intérêt. Il s’agit d’un flux d’actualités intégré sous Android ou sous iOS. Plus de 800 millions de mobinautes utilisent cette fonctionnalité à travers le monde, selon un tweet de Vincent Courson (8), responsable de la sensibilisation et directeur de programme chez Google à Dublin (Irlande). Les résultats affichés d’emblée par Discover, souvent en lien avec l’actualité, apparaissent sous la forme d’images-vignettes, de titres de page, de noms d’éditeur ou de domaine, et éventuellement de snippets ou de prévisualisation vidéo animée. « Discover n’est pas un service d’actualités spécialisé, a précisé Google à l’Autorité de la concurrence. Il s’agit essentiellement du moteur de recherche général fonctionnant sans requête spécifique, utilisant plutôt les intérêts connus de l’utilisateur pour fournir un flux de résultats personnalisés qui pourraient intéresser l’utilisateur ».
Jusqu’à fin 2019, les éditeurs devaient remplir un formulaire pour être affichés dans Google News. Depuis, ils peuvent opter pour ne plus être sur Google News en donnant une instruction aux robots d’exploration automatiques (automated crawlers) du géant du Net. Google a en outre expliqué en début d’année à l’Autorité de la concurrence que « Google Actualités s’appuie également sur l’index de recherche général de Google, mais les applications contiennent aussi du contenu supplémentaire : les éditeurs de presse qui ont des accords avec Google peuvent directement fournir des flux RSS [Really Simple Syndication, ndlr] de leur contenu à Google Actualités ». Or, dans la foulée de la promulgation de la loi du 24 juillet 2019 créant un droit voisin au profit des agences de presse et des éditeurs de presse (9) et en prévision de son entrée en vigueur le 24 octobre suivant, Google a modifié – de façon unilatéral et sans négociation avec les éditeurs sur leur rémunération à venir – sa politique d’affichage des contenus d’actualité au sein des différents services en ligne, notamment Google Search, Google Actualités et Discover. Sur le blog officiel de Google France, Richard Gingras a prévenu dès le 25 septembre 2019 que « [le moteur de recherche] n’affichera plus d’aperçu du contenu en France pour les éditeurs de presse européens, sauf si l’éditeur a fait les démarches pour nous indiquer que c’est son souhait » et que « ce sera le cas pour les résultats des recherches effectuées à partir de tous les services de Google » (10). Les éditeurs basés en France, dont les sites web ont été désignés « European press publication » par la « Google Search Console Team », ont reçu le même jour un e-mail – comme celui reçu par Edition Multimédi@ (11) – les informant des nouvelles balises Meta (max-snippet, max-image-preview, max-videopreview) à mettre en place dans le code source de leurs pages web. Si l’éditeur utilise les réglages pour permettre les aperçus de texte et d’image, Google le paiera-t-il ? « Nous n’acceptons pas de rémunération pour les résultats de recherche organiques et nous ne rémunérons pas les liens ou les aperçus figurant dans les résultats de recherche. Lorsque vous utilisez les nouveaux réglages, vous acceptez l’utilisation d’aperçus de votre contenu sans paiement, que ce soit vers ou depuis Google » (12). Les éditeurs de presse français ont aussitôt reproché au géant du Net de « contourner la loi » et d’abuser de sa position dominante (13), mais la plupart d’entre eux ont autorisé Google à continuer à afficher des contenus protégés (14) – sans pour autant renoncer à rémunération pour la reprise et l’affichage de leurs contenus (les éditeurs l’ont fait savoir à Google par courrier). Pour les sites web d’information qui n’ont pas autorisé Google à afficher leurs contenus protégés, ils se sont exposés à des baisses de trafic significatives, de l’ordre de 30 % à plus de 50 %. « L’application par Google d’un “prix nul” à l’ensemble des éditeurs de presse pour la reprise de leurs contenus protégés n’apparaît pas comme constituant une mesure raisonnable au sens de la jurisprudence », ont considéré les sages de la rue de l’Echelle. Google s’est défendu en leur affirmant qu’il peut avoir des accords contractuels et financiers avec des éditeurs de presse en ce qui concerne la vente et l’achat de publicités en ligne. Mais l’Autorité de la concurrence a considéré que « les pratiques anticoncurrentielles et les discriminations peuvent constituer un abus de position dominante » de la part de Google. Ces pratiques sont susceptibles d’être préjudiciables aux éditeurs et agences de presse, en privant la loi « Droits voisins » de juillet 2019 de ses effets escomptés.

En attendant une décision au fond
Dans l’attente de la décision au fond, et au vu des demandes de mesures conservatoires demandées (15) par l’APIG (16), le SEPM (17) et l’AFP (18), il est exigé de Google – sous forme d’injonction – « de négocier de bonne foi avec les éditeurs et agences de presse qui en feraient la demande pour la reprise de leurs contenus ». Et ce, « dans un délai de 3 mois à partir de la demande d’ouverture d’une négociation » et « de façon rétroactive [au] 24 octobre 2019 ». Ces injonctions demeurent en vigueur jusqu’à la publication de la décision au fond de l’Autorité de la concurrence. @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @

La Commission européenne 2019-2024 part en quête d’un « leadership numérique » face aux GAFA et aux BATX

Entre le marteau des géants américains de l’Internet et l’enclume de leurs homologues chinois, la nouvelle Commission européenne, présidée par Ursula von der Leyen et installée depuis le 1er décembre, va tenter de s’imposer dans le monde numérique. Pas moins de quatre commissaires ont le digital au coeur de leurs attributions.

C’est d’abord sur les épaules de la Danoise Margrethe Vestager (photo) que repose la charge de faire « une Europe préparée à l’ère numérique ». Cet objectif est justement le libellé de ses attributions au sein de la nouvelle Commission européenne, dont elle a été nommée vice-présidente exécutive. Très redoutée des GAFA qu’elle a mis pour certains à l’amende lorsqu’elle était commissaire européenne en charge de la concurrence (2014-2019), la voici en haut de l’affiche dans cette Commission « Leyen » qui remplace la Commission « Juncker » et qui a pris ses quartiers à Bruxelles depuis le 1er décembre pour un mandat de cinq ans (2019-2024). Margrethe Vestager devra composer avec trois autres commissaires européens qui auront eux aussi affaire avec la stratégie digitale du Vieux Continent : la Bulgare Mariya Gabriel qui se retrouve avec le portefeuille « Innovation et Jeunesse » (après avoir été auparavant en charge de l’Economie et de la Société numériques), le Français Thierry Breton qui fait son entrée à Bruxelles avec la responsabilité du Marché intérieur, et le Belge Didier Reynders qui est aussi un nouveau venu pour prendre en charge la Justice. La réussite ou pas de « l’Europe digitale » dépend donc de ce « quadriumvirat » où chacun a de près ou de loin le numérique dans son portefeuille.

Vers une nouvelle « loi sur les services numériques »
« La transition numérique aura des répercussions sur tous les aspects de notre économie et de notre société. Votre tâche consistera à faire en sorte que l’Europe saisisse pleinement le potentiel de l’ère numérique et renforce sa capacité industrielle et d’innovation. Ce sera un élément-clé du renforcement de notre leadership technologique et de notre autonomie stratégique », a écrit la présidente de la nouvelle Commission européenne, Ursula von der Leyen, dans la lettre de mission qu’elle a adressée à Margrethe Vestager (1). Cela passera par une nouvelle stratégie à long terme pour l’avenir industriel de l’Europe, une maximisation de l’investissement dans la recherche et l’innovation, et une nouvelle stratégie pour les PME et les start-up, « notamment en réduisant la charge réglementaire et en leur permettant de tirer le meilleur parti de la numérisation ». Pour les cent premiers jours du mandat de Margrethe Vestager, la présidente de la Commission européenne lui demande de « coordonner les travaux sur une approche européenne de l’intelligence artificielle (IA), y compris ses implications humaines et éthiques », ainsi que d’« examiner comment utiliser et partager des mégadonnées (big data) non personnalisées pour développer de nouvelles technologies et de nouveaux modèles économiques créateurs de richesse pour nos sociétés et nos entreprises ».

Creative Europe 2021-2027 : 1,8 Md €
La nouvelle vice-présidente exécutive « pour une Europe préparée à l’ère numérique » devra en outre coordonner la mise à niveau des règles de responsabilité et de sécurité des plateformes, des services et des produits numériques dans le cadre d’une nouvelle « loi sur les services numériques » – Digital Services Act. Ce cadre concernera aussi les conditions de travail des travailleurs des plateformes numériques. Il s’agit là d’un projet législatif européen majeur pour le marché unique numérique que devra proposer en 2020 la Commission européenne pour adapter, voire remplacer à terme, la fameuse directive « E-commerce » de 2000. Celle-ci (2) garantit depuis vingt ans aux hébergeurs du Net, notamment aux plateformes de partage et aux réseaux sociaux une responsabilité limité vis-à-vis des contenus mis en ligne par leurs utilisateurs. La loi française pour la confiance dans l’économie numérique (LCEN) de 2004 a sanctuarisé dans le droit national ce régime de responsabilité partielle de l’hébergeur, ce qu’ont sans cesse voulu remettre en cause les industries culturelles dans leur lutte contre le piratage en ligne. Par ailleurs, Margrethe Vestager aura aussi à coordonner les travaux sur la taxe numérique (digital taxation) afin de trouver « un consensus au niveau international d’ici à la fin de 2020 » ou pour proposer « une fiscalité européenne équitable ». A l’instar de Margrethe Vestager, Mariya Gabriel passe de la Commission « Juncker » à la Commission « UVDL » (3) en changeant aussi de portefeuille. La Bulgare, francophone (4), devient commissaire européenne à l’Innovation et à la Jeunesse – après avoir été plus de deux ans à l’Economie et à la Société numériques (2017-2019). « Je veux, lui a écrit la présidente de la Commission européenne dans sa lettre de mission (5), que vous mettiez l’accent sur la culture et l’éducation numériques afin de combler l’écart en matière de compétences numériques. Vous devriez diriger la mise à jour du Plan d’action pour l’éducation numérique et examiner comment nous pouvons augmenter le nombre de cours ouverts en ligne. Vous devriez également vous pencher sur la façon d’accroître la sensibilisation dès le plus jeune âge à la désinformation et aux autres menaces en ligne ». Le Plan d’action en matière d’éducation numérique – Digital Education Action Plan (6) – a été lancé en janvier 2018 et sera mis en oeuvre par la Commission européenne d’ici la fin de 2020. Mariya Gabriel sera aussi coresponsable du Nouvel agenda pour la culture – New European Agenda for Culture (7) – adopté en mai 2018 avec un premier programme de travail 2019- 2022 fixé par le Conseil de l’Union européenne et publié au JOUE il y a un an (8). Parmi les cinq priorités culturelles à mettre en oeuvre : « un écosystème soutenant les artistes, les professionnels de la culture et de la création et les contenus européens » (mobilité des artistes, conditions salariales et de travail décentes, accès au financement et coopération transfrontière). Plus généralement, la nouvelle commissaire à l’Innovation et la Jeunesse devra « promouvoir les industries créatives comme catalyseur de l’innovation, de l’emploi et de la croissance et maximiser le potentiel de l’ambitieux programme “Creative Europe” ». Ce programme-cadre « Europe créative » – divisé en deux sous-programmes, Culture et Media – voit sa période 2014-2020 s’achever l’an prochain. Pour 2021-2027, le budget est prévu à un peu plus de 1,8 milliard d’euros, dont 58,4% pour le volet Media, 33 % pour le volet Culture et 8,6 % pour le volet trans-sectoriel (9). Mais l’examen du futur règlement se poursuivent au sein du Conseil de l’UE. Thierry Breton, lui, embrasse aussi le numérique dans son portefeuille « Marché intérieur », malgré les risques de conflits d’intérêts : il est dans l’histoire de l’UE le premier grand patron (Atos, France Télécom, Thomson, Bull) à devenir commissaire européen. Le 14 novembre, il a confirmé aux eurodéputés qu’il avait déjà vendu la totalité de ses actions (pour 45 millions d’euros, selon l’AMF) et démissionné de tout conseil d’administration. Son poste englobe l’économie et la société numériques, l’industrie et le marché unique, la Défense et l’espace (dont le « GPS » européen Galileo). « Je veux, lui a demandé UVDL dans sa lettre de mission (10), que vous participiez au travail de renforcement de la souveraineté technologique de l’Europe. Cela signifie qu’il faut investir dans la prochaine frontière des technologies, comme la chaîne de blocs (blockchain), l’informatique de haute performance, les algorithmes et les outils de partage et d’utilisation des données. Cela signifie également de définir conjointement des normes pour les réseaux 5G et les technologies de nouvelle génération ». Thierry Breton devra aussi coordonner l’Europe sur l’IA et la cybersécurité. Il contribuera en outre aux prochains Digital Services Act et Digital Education Action Plan.

A la recherche d’une IA éthique et humaine
Quant à Didier Reynders, à la Justice, il n’est pas en reste sur le digital. « Je veux, peut-on lire dans sa lettre de mission (11), que vous dirigiez le travail sur la protection des consommateurs, notamment pour les transactions transfrontalières et en ligne ». Il s’assurera que le RGPD sera complètement appliqué. Il contribuera à « la législation sur une approche coordonnée des implications humaines et éthiques de l’IA, en veillant à ce que les droits fondamentaux soient pleinement protégés à l’ère numérique ». Reste à savoir si la vice-présidente Margrethe Vestager réussira à faire de l’Europe une « championne numérique ». @

Charles de Laubier

Google Stadia devrait faire décoller le marché du « cloud gaming », au détriment de… Netflix

Google est le premier GAFAM à se lancer sur le marché mondial – encore embryonnaire – du « cloud gaming » avec Stadia, sa plateforme disponible puis le 19 novembre. Microsoft et Amazon seront les prochains, en 2020. Netflix pourrait être la première victime collatérale.

Contre toute attente, le numéro un mondial de la SVOD, Netflix, pourrait être la première victime collatérale de la plateforme Stadia que Google vient de lancer en Amérique du Nord et en Europe. Le PDG fondateur de Netflix, Reed Hastings, n’avait-il pas dit en janvier dernier que les jeux vidéo comme Fortnite, édité par Epic Games, ou des plateformes de jeux en streaming, comme Twitch d’Amazon, étaient bien plus des concurrents que ne l’étaient par exemple Amazon Prime Video ou HBO de WarnerMedia ?

Un « Netflix » potentiel du jeu vidéo en ligne
C’est la bataille des activités de divertissement chronophages qui se joue là. A part le sommeil, qui est un concurrent inévitable et incontournable, le temps disponible des utilisateurs-consommateurs est un « marché » à conquérir afin de retenir leur attention – d’autres auraient dit « capter une part quotidienne de “temps de cerveau disponible” » (1). Pour les GAFAM et les « Netflix » tournés vers le grand public, le premier défi à relever est celui de se faire une place dans l’économie de l’attention, qui consiste à retenir l’attention justement – véritable ressource rare – des utilisateurs déjà saturés de contenus en tout genre. « Pour nous, il s’agit de prendre du temps à d’autres activités de loisirs. Notre croissance est fondée sur la qualité de l’expérience, comparée à toutes les autres façons de passer du temps devant un écran », avait expliqué en début d’année Reed Hastings, tout en admettant qu’« [il] luttait et perdait davantage face à Fortnite que face à HBO ». Le patron de Netflix, avec ses 158 millions d’abonnés aujourd’hui dans le monde (dont 6 millions en France), s’est pourtant dit confiant à force de miser sur la qualité de l’expérience de ses clients. Mais cela suffira-t-il pour retenir tous ceux qui seront tentés d’aller s’abonner ailleurs, notamment chez Stadia de Google, ou chez le futur « xCloud » de Microsoft, voire auprès de PlayStation Now (PSN) de Sony (700.000 abonnés séduits depuis cinq ans), lorsque cela ne sera pas sur Prime Video d’Amazon en pleine offensive ?
La puissance de feu de Stadia, premier cloud gaming d’un géant du Net et que dirige Phil Harrison (photo), réside non seulement dans l’investissement que Google (filiale d’Alphabet) met dans son infrastructure mondiale de centre de données, mais aussi dans les capacités informatiques dédiées à sa nouvelle plateforme de jeux vidéo en ligne. Car en matière de cloud gaming, l’idée est que les abonnés vidéo-ludiques n’ont plus à se préoccuper de la performance de leur propre matériel et carte graphique : tout est dans le nuage et dans le réseau. Plus besoin d’installer une configuration de jeu suffisamment puissante, et donc coûteuse. Un écran – smartphone, tablette, télévision connectée, ordinateur – et une manette compatible feront l’affaire.
C’est la plateforme de cloud gaming qui s’adapte de façon optimale au terminal utilisé, tant en termes de puissance de calcul que de qualité vidéo. Toute la puissance informatique se situe sur les serveurs distants de Stadia. La définition de l’image (HD, ultra-HD, 4K ou 8K) et la réactivité du jeu (très faible temps de latence) reposent sur la puissance de calcul (processeurs performant) et la vitesse du réseau (bande passante élevée, sur la fibre optique et la future 5G). Ces méga-capacités délocalisées dans les nuages donnent naissant à un marché mondial des jeux vidéo complètement dématérialisés, puissance de calcul comprise. Le fait que l’utilisateur n’aura plus à investir dans du matériel trop coûteux tel que tour gaming, PC gamer, carte graphique full ou ultra HD, processeur graphique GPU (Graphics Processing Unit) ou multi-GPU, etc. Du coup, au-delà des geeks et aficionados du jeux vidéo déjà tout équipés, le cloud gaming devrait attirer un nouveau public de joueurs occasionnels (casual gamers). Le potentiel de ces utilisateurs familiaux prêts à s’abonner à un « Netflix » du jeu vidéo en ligne est évalué à plusieurs millions de personnes, voire à des dizaines de millions de nouveaux-venus à travers le monde.

Un marché mondial encore embryonnaire
Google proposera plusieurs abonnements, en fonction du profil des joueurs, à commencer cette année par « Stadia Pro » pour 9,99 dollars par mois. Depuis le lancement du 19 novembre dans une quinzaine de pays, Stadia propose pour l’instant 22 jeux vidéo et d’ici la fin de l’année une trentaine de titres. Mais, hormis l’effet « Noël », la vraie montée en charge de la plateforme de Google devrait intervenir durant l’année 2020 avec un catalogue plus étoffé et une offre de base encore plus grand public. Le marché mondial du cloud gaming permet ainsi aux joueurs en ligne de s’affranchir des contraintes matérielles avec des jeux vidéo totalement dématérialisés, bien plus que ne le permet les jeux en streaming où la puissance d’exécution dépend encore du niveau de gamme côté joueur.
Mais, pour l’heure, force est de constater que ce segment de marché est encore embryonnaire par rapport à la taille globale du jeu vidéo : le cloud gaming a généré à peine plus de 300 millions de dollars en 2018, sur un total mondial du jeu vidéo de 120 milliards de dollars. Autrement dit, si l’on se réfère à ces chiffres compilés par SuperData Research (groupe Nielsen) et l’Idate : le cloud gaming ne pèse qu’un quart de 1 % du marché ! En France, où le jeu vidéo (terminaux, équipements et jeux) totalise en 2018 un chiffre d’affaires de 4,9 milliards d’euros TTC, selon le Sell ; ou 3,6 milliards d’euros HT, selon l’Idate, le tout-dématérialisé est encore quasi-inexistant.

Microsoft et Amazon en embuscade
Les promesses de Google avec Stadia, premier GAFAM à débarquer sur ce marché naissant, seront attentivement scrutées, à commencer par le pionnier Sony qui a divisé par deux en octobre dernier le prix de son abonnement à PSN (à 9,99 dollars/9,99 euros par mois) pour s’aligner sur « Stadia Pro ». Si Stadia réussit à conquérir 10 millions de gamers en un an, l’Idate estime que Google aura réussi son pari.
De son côté, Microsoft se prépare activement en vue du lancement en 2020 de son « Project xCloud » pour ne pas se laisser distancer par Stadia. Le cloud gaming constitut surtout pour le « M » de GAFAM un relais de croissance potentiel, au moment où sa Xbox One montre des signes de faiblesse dans ses ventes qui stagnent. Il faut dire que sa console de huitième génération a fêté ses six ans d’existence le 22 novembre dernier. Or la neuvième génération, identifiée sous le nom de « Projet Scarlett » et dévoilée en juin dernier à la grand-messe E3 à Los Angeles, ne sera disponible que… fin 2020. Pour contrer Google, Microsoft a même annoncé au printemps dernier une alliance avec son rival de toujours Sony dans le jeu en streaming. Leur accord prévoit « des développements communs pour leurs services de jeux et contenus en streaming ». Le cloud gaming fait clairement partie du périmètre de cette alliance Microsoft-Sony. Le géant américain du logiciel pour PC et le fleuron nippon de l’électronique grand public vont ainsi conjuguer leurs savoir faire dans les jeux vidéo et dans le cloud, notamment avec Azure (2). Microsoft a posé des jalons dans le streaming vidéoludique avec Xbox Live et la diffusion en live de jeux en ligne en lançant en 2017 le service Mixer (3) pour concurrencer Twitch d’Amazon. Il y a un an, soit dix-huit mois après son lancement, Microsoft indiquait que Mixer avait séduit 20 millions d’utilisateurs mensuels. Le projet xCloud est un défi autrement plus élevé. A l’occasion de son événement X019 à Londres (mi-novembre), dédié à tout l’univers Xbox, la firme de Redmond a dévoilé la deuxième phase des développements du xCloud qui fait l’objet d’une version bêta aux Etats-Unis, en Grande-Bretagne et en Corée du Sud (non disponible en France à ce stade). Son ouverture en Europe est prévue en 2020.
Amazon, non seulement géant du e-commerce mais aussi géant du cloud avec sa filiale AWS (4), est lui aussi en embuscade. Déjà fort de sa plateforme Twitch, la plateforme de jeux vidéo en streaming rachetée en août 2014 pour 970 millions de dollars, Amazon pourrait aussi se lancer en 2020 dans le cloud gaming. En tout cas, le site Cnet.com a repéré une annonce d’emploi « New AWS Gaming Initiative » (5). Et qu’est-ce qui empêcherait la firme de Jeff Bezos de devenir dans la foulée éditeur de jeux vidéo ? A l’instar de Netflix qui a ses « Originals », les géants du cloud gaming en formation auront leurs jeux vidéo exclusifs produits par et pour eux-mêmes. Microsoft a déjà ses exclusivités-maison, comme « Gears 5 ». Sony en a quelques-uns tels que « God of War ». Google a fait développer par le studio Tequila Works son premier jeu exclusif, « Gylt », disponible sur Stadia.
Quant au chinois Tencent, il pourrait créer la surprise dans le cloud gaming avec son service Instant Play, depuis qu’il s’est allié en début d’année dans ce domaine à l’américain Intel. Les américains Valve et Nvidia, déjà positionnés avec leur plateforme de streaming respective – Steam et GeForce Now – sont également attendus au tournant. L’américain Electronic Arts, leader mondial des jeux vidéo, teste encore son « Project Atlas » (6) dans les nuages. Sans oublier la start-up française Blade qui a procédé à une nouvelle levée de fonds de 30 millions d’euros (soit au total 100 millions d’euros depuis sa création en 2015) pour accélérer le déploiement de son offre virtuelle Shadow (ordinateur dématérialisé pour jeux vidéo).

Développements pour tous écrans et Big Data
Pour les créateurs de jeux vidéo, le cloud gaming est d’ailleurs l’assurance de moins dépendre des performances plus ou moins à la hauteur des équipements des joueurs, tout en développant des jeux adaptés d’emblée à l’ensemble des terminaux et écrans accédant à une plateforme unique dans le nuage. Pour les plateformes, c’est pour elles l’opportunité d’accéder au Big Data que va générer massivement le cloud gaming intégrant un réseau social de gamers, afin d’exploiter à leur profit les données personnelles et les données de jeux pour adapter et faire évoluer leurs offres. @

Charles de Laubier