Google Search, Google News et Google Discover : le quasi-monopole de la recherche d’actualités en ligne

L’injonction prononcée le 9 avril par l’Autorité de la concurrence contre Google – pour l’obliger à négocier avec la presse française une rémunération pour la reprise de ses articles – est l’occasion de faire le point sur Google Search, Google News et Google Discover dans le traitement de l’actualité.

« Nous nous conformerons à la décision de l’Autorité de la concurrence que nous sommes en train d’analyser, tout en poursuivant [l]es négociations », a fait savoir le jour-même du verdict dans un communiqué Richard Gingras (photo), vice-président chez Google, en charge des activités « News », que les actualités soient sur le moteur de recherche Google Search, dans l’agrégateur d’actualités Google News ou le fil Google Discover. La firme de Mountain View – Richard Gingras étant basé, lui, à moins de dix kilomètres, à Los Altos – est en train de passer au crible les 72 pages (1) de l’injonction du gendarme français de la concurrence, lequel doit encore rendre sa décision sur le fond.

La position dominante de Google
« Google est susceptible de détenir une position dominante sur le marché français des services de recherche généraliste. En effet, sa part de marché en nombre mensuel de requêtes est de l’ordre de 90 % à la fin de l’année 2019. Il existe, par ailleurs, de fortes barrières à l’entrée et à l’expansion sur ce marché, (…) de nature à rendre la position de Google difficilement contestable », relève d’emblée l’Autorité de la concurrence, dans sa décision rendue le 9 avril dans l’affaire du droit voisin de la presse, et en attendant sa décision au fond. Le numéro un mondial des moteurs de recherche, créé il y a vingt-deux ans, est massivement utilisé pour rechercher des informations, à commencer par le vaisseau amiral Google Search (2). Internautes et mobinautes y formulent leurs requêtes par mots-clés (un ou plusieurs) et obtiennent en moins d’une seconde des résultats qui peuvent être au nombre de quelques-uns ou de plusieurs millions, voire plusieurs milliards. Parmi eux se trouvent des liens d’actualités affichés sous une forme standardisée (3) qui fait apparaître le titre de l’information, le nom du site web référencé, un extrait de texte ou de l’article en question, et éventuellement une image miniature. Dans cette « éditoriali-sation » des résultats de recherche, Google désigne l’extrait de texte sous le terme anglais de snippet (extrait, en français). « Le terme snippet ne recouvre ni le titre, ni l’éventuelle image miniature apparaissant dans les résultats de recherche », précise Google. Au-delà de ces extraits, le moteur de recherche de la filiale d’Alphabet met aussi en avant l’actualité à travers un carrousel intitulé « A la Une » et dont les résultats défilent horizontalement à l’aide de petites flèches. Y apparaissent photos, titres et noms des journaux et/ou des sites web d’information, et indication du temps écoulé depuis la parution de chacune des actualités. En revanche, n’apparaissent généralement pas dans ce carrousel d’actualités des extraits de l’article. Pour figurer dans ce carrousel « A la Une », notamment sur smartphone, le contenu des éditeurs doit être disponible au format AMP (4) qui accélère l’affichage des pages web lorsqu’elles sont construites à l’aide de ce protocole (5) créé en 2015 et opérationnel depuis février 2016. Selon Google « l’utilisation du protocole AMP équivaut à donner son consentement à la “mise en cache” et à la prévisualisation des images de [plus ou moins, en fonction du choix de l’éditeur, ndlr] grande taille ». Dans la frise, cette fois, des onglets situés en haut de la page des résultats, l’un d’entre eux – le deuxième – est intitulé « Actualités » (ou « News ») et donnent accès à une liste de titres avec pour chacun une photo, le nom de l’éditeur, le temps écoulé depuis la mise en ligne et le fameux snippet de deux lignes.
En dehors de ce vaisseau amiral Google Search, le géant du Net a aussi lancé en 2002 Google News (sorti de sa phase bêta en 2006). Cet agrégateur d’actualités – accessible gratuitement à partir de news.google.com ou via les applications mobiles sous iOS et Android – est décliné dans plusieurs pays, dont la France avec « Google Actualités » (sorti de sa période de test en 2009). Contrairement à Google Search, Google News est dédié à l’actualité et se décline en quelque 80 versions locales du monde entier, qui s’affichent automatiquement en fonction de la langue et la région de l’utilisateur (6). En tête du service, se trouve la barre de recherche d’actualités par mots-clés pour « rechercher des sujets, des lieux et des sources ». L’utilisateur en outre visualiser dans la page Google News différentes sections thématiques.

Robots (bots), crawling et Big Data
Le point commun entre Google Search et Google News, c’est que ces deux services gratuits s’appuient sur le même index de Google. Cet index de plusieurs milliards de pages web est le nerf de la guerre de la firme de Mountain View, son fonds de commerce, sa raison d’être. Ce Big Data est constitué par une exploration – crawling – quotidienne du Web, à l’aide de robots d’indexation. Ces bots Internet naviguent systématiquement sur le World Wide Web pour indexer les contenus qui s’y trouvent. Google les stocke aussitôt sur ses plus de 2,5 millions de serveurs informatiques répartis sur la planète (7). Le protocole d’exclusion des robots – ou REP pour Robot Exclusion Protocol – permet aux éditeurs d’autoriser ou d’exclure des parties de leurs sites web aux robots d’exploration automatisés. Quant aux balises Meta, elles donnent aussi des instructions aux robots d’indexer ou pas des pages web, tandis que le « Publisher Center » permet aux éditeurs de gérer la présentation de leurs contenus dans Google News.

Loi « Droit voisin » en vigueur depuis 6 mois
Sur smartphones et tablettes, un autre service appelé Google Discover (ex-Google Feed) offre la possibilité aux mobinautes d’obtenir des informations en rapport avec ses centres d’intérêt. Il s’agit d’un flux d’actualités intégré sous Android ou sous iOS. Plus de 800 millions de mobinautes utilisent cette fonctionnalité à travers le monde, selon un tweet de Vincent Courson (8), responsable de la sensibilisation et directeur de programme chez Google à Dublin (Irlande). Les résultats affichés d’emblée par Discover, souvent en lien avec l’actualité, apparaissent sous la forme d’images-vignettes, de titres de page, de noms d’éditeur ou de domaine, et éventuellement de snippets ou de prévisualisation vidéo animée. « Discover n’est pas un service d’actualités spécialisé, a précisé Google à l’Autorité de la concurrence. Il s’agit essentiellement du moteur de recherche général fonctionnant sans requête spécifique, utilisant plutôt les intérêts connus de l’utilisateur pour fournir un flux de résultats personnalisés qui pourraient intéresser l’utilisateur ».
Jusqu’à fin 2019, les éditeurs devaient remplir un formulaire pour être affichés dans Google News. Depuis, ils peuvent opter pour ne plus être sur Google News en donnant une instruction aux robots d’exploration automatiques (automated crawlers) du géant du Net. Google a en outre expliqué en début d’année à l’Autorité de la concurrence que « Google Actualités s’appuie également sur l’index de recherche général de Google, mais les applications contiennent aussi du contenu supplémentaire : les éditeurs de presse qui ont des accords avec Google peuvent directement fournir des flux RSS [Really Simple Syndication, ndlr] de leur contenu à Google Actualités ». Or, dans la foulée de la promulgation de la loi du 24 juillet 2019 créant un droit voisin au profit des agences de presse et des éditeurs de presse (9) et en prévision de son entrée en vigueur le 24 octobre suivant, Google a modifié – de façon unilatéral et sans négociation avec les éditeurs sur leur rémunération à venir – sa politique d’affichage des contenus d’actualité au sein des différents services en ligne, notamment Google Search, Google Actualités et Discover. Sur le blog officiel de Google France, Richard Gingras a prévenu dès le 25 septembre 2019 que « [le moteur de recherche] n’affichera plus d’aperçu du contenu en France pour les éditeurs de presse européens, sauf si l’éditeur a fait les démarches pour nous indiquer que c’est son souhait » et que « ce sera le cas pour les résultats des recherches effectuées à partir de tous les services de Google » (10). Les éditeurs basés en France, dont les sites web ont été désignés « European press publication » par la « Google Search Console Team », ont reçu le même jour un e-mail – comme celui reçu par Edition Multimédi@ (11) – les informant des nouvelles balises Meta (max-snippet, max-image-preview, max-videopreview) à mettre en place dans le code source de leurs pages web. Si l’éditeur utilise les réglages pour permettre les aperçus de texte et d’image, Google le paiera-t-il ? « Nous n’acceptons pas de rémunération pour les résultats de recherche organiques et nous ne rémunérons pas les liens ou les aperçus figurant dans les résultats de recherche. Lorsque vous utilisez les nouveaux réglages, vous acceptez l’utilisation d’aperçus de votre contenu sans paiement, que ce soit vers ou depuis Google » (12). Les éditeurs de presse français ont aussitôt reproché au géant du Net de « contourner la loi » et d’abuser de sa position dominante (13), mais la plupart d’entre eux ont autorisé Google à continuer à afficher des contenus protégés (14) – sans pour autant renoncer à rémunération pour la reprise et l’affichage de leurs contenus (les éditeurs l’ont fait savoir à Google par courrier). Pour les sites web d’information qui n’ont pas autorisé Google à afficher leurs contenus protégés, ils se sont exposés à des baisses de trafic significatives, de l’ordre de 30 % à plus de 50 %. « L’application par Google d’un “prix nul” à l’ensemble des éditeurs de presse pour la reprise de leurs contenus protégés n’apparaît pas comme constituant une mesure raisonnable au sens de la jurisprudence », ont considéré les sages de la rue de l’Echelle. Google s’est défendu en leur affirmant qu’il peut avoir des accords contractuels et financiers avec des éditeurs de presse en ce qui concerne la vente et l’achat de publicités en ligne. Mais l’Autorité de la concurrence a considéré que « les pratiques anticoncurrentielles et les discriminations peuvent constituer un abus de position dominante » de la part de Google. Ces pratiques sont susceptibles d’être préjudiciables aux éditeurs et agences de presse, en privant la loi « Droits voisins » de juillet 2019 de ses effets escomptés.

En attendant une décision au fond
Dans l’attente de la décision au fond, et au vu des demandes de mesures conservatoires demandées (15) par l’APIG (16), le SEPM (17) et l’AFP (18), il est exigé de Google – sous forme d’injonction – « de négocier de bonne foi avec les éditeurs et agences de presse qui en feraient la demande pour la reprise de leurs contenus ». Et ce, « dans un délai de 3 mois à partir de la demande d’ouverture d’une négociation » et « de façon rétroactive [au] 24 octobre 2019 ». Ces injonctions demeurent en vigueur jusqu’à la publication de la décision au fond de l’Autorité de la concurrence. @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @

La Commission européenne 2019-2024 part en quête d’un « leadership numérique » face aux GAFA et aux BATX

Entre le marteau des géants américains de l’Internet et l’enclume de leurs homologues chinois, la nouvelle Commission européenne, présidée par Ursula von der Leyen et installée depuis le 1er décembre, va tenter de s’imposer dans le monde numérique. Pas moins de quatre commissaires ont le digital au coeur de leurs attributions.

C’est d’abord sur les épaules de la Danoise Margrethe Vestager (photo) que repose la charge de faire « une Europe préparée à l’ère numérique ». Cet objectif est justement le libellé de ses attributions au sein de la nouvelle Commission européenne, dont elle a été nommée vice-présidente exécutive. Très redoutée des GAFA qu’elle a mis pour certains à l’amende lorsqu’elle était commissaire européenne en charge de la concurrence (2014-2019), la voici en haut de l’affiche dans cette Commission « Leyen » qui remplace la Commission « Juncker » et qui a pris ses quartiers à Bruxelles depuis le 1er décembre pour un mandat de cinq ans (2019-2024). Margrethe Vestager devra composer avec trois autres commissaires européens qui auront eux aussi affaire avec la stratégie digitale du Vieux Continent : la Bulgare Mariya Gabriel qui se retrouve avec le portefeuille « Innovation et Jeunesse » (après avoir été auparavant en charge de l’Economie et de la Société numériques), le Français Thierry Breton qui fait son entrée à Bruxelles avec la responsabilité du Marché intérieur, et le Belge Didier Reynders qui est aussi un nouveau venu pour prendre en charge la Justice. La réussite ou pas de « l’Europe digitale » dépend donc de ce « quadriumvirat » où chacun a de près ou de loin le numérique dans son portefeuille.

Vers une nouvelle « loi sur les services numériques »
« La transition numérique aura des répercussions sur tous les aspects de notre économie et de notre société. Votre tâche consistera à faire en sorte que l’Europe saisisse pleinement le potentiel de l’ère numérique et renforce sa capacité industrielle et d’innovation. Ce sera un élément-clé du renforcement de notre leadership technologique et de notre autonomie stratégique », a écrit la présidente de la nouvelle Commission européenne, Ursula von der Leyen, dans la lettre de mission qu’elle a adressée à Margrethe Vestager (1). Cela passera par une nouvelle stratégie à long terme pour l’avenir industriel de l’Europe, une maximisation de l’investissement dans la recherche et l’innovation, et une nouvelle stratégie pour les PME et les start-up, « notamment en réduisant la charge réglementaire et en leur permettant de tirer le meilleur parti de la numérisation ». Pour les cent premiers jours du mandat de Margrethe Vestager, la présidente de la Commission européenne lui demande de « coordonner les travaux sur une approche européenne de l’intelligence artificielle (IA), y compris ses implications humaines et éthiques », ainsi que d’« examiner comment utiliser et partager des mégadonnées (big data) non personnalisées pour développer de nouvelles technologies et de nouveaux modèles économiques créateurs de richesse pour nos sociétés et nos entreprises ».

Creative Europe 2021-2027 : 1,8 Md €
La nouvelle vice-présidente exécutive « pour une Europe préparée à l’ère numérique » devra en outre coordonner la mise à niveau des règles de responsabilité et de sécurité des plateformes, des services et des produits numériques dans le cadre d’une nouvelle « loi sur les services numériques » – Digital Services Act. Ce cadre concernera aussi les conditions de travail des travailleurs des plateformes numériques. Il s’agit là d’un projet législatif européen majeur pour le marché unique numérique que devra proposer en 2020 la Commission européenne pour adapter, voire remplacer à terme, la fameuse directive « E-commerce » de 2000. Celle-ci (2) garantit depuis vingt ans aux hébergeurs du Net, notamment aux plateformes de partage et aux réseaux sociaux une responsabilité limité vis-à-vis des contenus mis en ligne par leurs utilisateurs. La loi française pour la confiance dans l’économie numérique (LCEN) de 2004 a sanctuarisé dans le droit national ce régime de responsabilité partielle de l’hébergeur, ce qu’ont sans cesse voulu remettre en cause les industries culturelles dans leur lutte contre le piratage en ligne. Par ailleurs, Margrethe Vestager aura aussi à coordonner les travaux sur la taxe numérique (digital taxation) afin de trouver « un consensus au niveau international d’ici à la fin de 2020 » ou pour proposer « une fiscalité européenne équitable ». A l’instar de Margrethe Vestager, Mariya Gabriel passe de la Commission « Juncker » à la Commission « UVDL » (3) en changeant aussi de portefeuille. La Bulgare, francophone (4), devient commissaire européenne à l’Innovation et à la Jeunesse – après avoir été plus de deux ans à l’Economie et à la Société numériques (2017-2019). « Je veux, lui a écrit la présidente de la Commission européenne dans sa lettre de mission (5), que vous mettiez l’accent sur la culture et l’éducation numériques afin de combler l’écart en matière de compétences numériques. Vous devriez diriger la mise à jour du Plan d’action pour l’éducation numérique et examiner comment nous pouvons augmenter le nombre de cours ouverts en ligne. Vous devriez également vous pencher sur la façon d’accroître la sensibilisation dès le plus jeune âge à la désinformation et aux autres menaces en ligne ». Le Plan d’action en matière d’éducation numérique – Digital Education Action Plan (6) – a été lancé en janvier 2018 et sera mis en oeuvre par la Commission européenne d’ici la fin de 2020. Mariya Gabriel sera aussi coresponsable du Nouvel agenda pour la culture – New European Agenda for Culture (7) – adopté en mai 2018 avec un premier programme de travail 2019- 2022 fixé par le Conseil de l’Union européenne et publié au JOUE il y a un an (8). Parmi les cinq priorités culturelles à mettre en oeuvre : « un écosystème soutenant les artistes, les professionnels de la culture et de la création et les contenus européens » (mobilité des artistes, conditions salariales et de travail décentes, accès au financement et coopération transfrontière). Plus généralement, la nouvelle commissaire à l’Innovation et la Jeunesse devra « promouvoir les industries créatives comme catalyseur de l’innovation, de l’emploi et de la croissance et maximiser le potentiel de l’ambitieux programme “Creative Europe” ». Ce programme-cadre « Europe créative » – divisé en deux sous-programmes, Culture et Media – voit sa période 2014-2020 s’achever l’an prochain. Pour 2021-2027, le budget est prévu à un peu plus de 1,8 milliard d’euros, dont 58,4% pour le volet Media, 33 % pour le volet Culture et 8,6 % pour le volet trans-sectoriel (9). Mais l’examen du futur règlement se poursuivent au sein du Conseil de l’UE. Thierry Breton, lui, embrasse aussi le numérique dans son portefeuille « Marché intérieur », malgré les risques de conflits d’intérêts : il est dans l’histoire de l’UE le premier grand patron (Atos, France Télécom, Thomson, Bull) à devenir commissaire européen. Le 14 novembre, il a confirmé aux eurodéputés qu’il avait déjà vendu la totalité de ses actions (pour 45 millions d’euros, selon l’AMF) et démissionné de tout conseil d’administration. Son poste englobe l’économie et la société numériques, l’industrie et le marché unique, la Défense et l’espace (dont le « GPS » européen Galileo). « Je veux, lui a demandé UVDL dans sa lettre de mission (10), que vous participiez au travail de renforcement de la souveraineté technologique de l’Europe. Cela signifie qu’il faut investir dans la prochaine frontière des technologies, comme la chaîne de blocs (blockchain), l’informatique de haute performance, les algorithmes et les outils de partage et d’utilisation des données. Cela signifie également de définir conjointement des normes pour les réseaux 5G et les technologies de nouvelle génération ». Thierry Breton devra aussi coordonner l’Europe sur l’IA et la cybersécurité. Il contribuera en outre aux prochains Digital Services Act et Digital Education Action Plan.

A la recherche d’une IA éthique et humaine
Quant à Didier Reynders, à la Justice, il n’est pas en reste sur le digital. « Je veux, peut-on lire dans sa lettre de mission (11), que vous dirigiez le travail sur la protection des consommateurs, notamment pour les transactions transfrontalières et en ligne ». Il s’assurera que le RGPD sera complètement appliqué. Il contribuera à « la législation sur une approche coordonnée des implications humaines et éthiques de l’IA, en veillant à ce que les droits fondamentaux soient pleinement protégés à l’ère numérique ». Reste à savoir si la vice-présidente Margrethe Vestager réussira à faire de l’Europe une « championne numérique ». @

Charles de Laubier

Google Stadia devrait faire décoller le marché du « cloud gaming », au détriment de… Netflix

Google est le premier GAFAM à se lancer sur le marché mondial – encore embryonnaire – du « cloud gaming » avec Stadia, sa plateforme disponible puis le 19 novembre. Microsoft et Amazon seront les prochains, en 2020. Netflix pourrait être la première victime collatérale.

Contre toute attente, le numéro un mondial de la SVOD, Netflix, pourrait être la première victime collatérale de la plateforme Stadia que Google vient de lancer en Amérique du Nord et en Europe. Le PDG fondateur de Netflix, Reed Hastings, n’avait-il pas dit en janvier dernier que les jeux vidéo comme Fortnite, édité par Epic Games, ou des plateformes de jeux en streaming, comme Twitch d’Amazon, étaient bien plus des concurrents que ne l’étaient par exemple Amazon Prime Video ou HBO de WarnerMedia ?

Un « Netflix » potentiel du jeu vidéo en ligne
C’est la bataille des activités de divertissement chronophages qui se joue là. A part le sommeil, qui est un concurrent inévitable et incontournable, le temps disponible des utilisateurs-consommateurs est un « marché » à conquérir afin de retenir leur attention – d’autres auraient dit « capter une part quotidienne de “temps de cerveau disponible” » (1). Pour les GAFAM et les « Netflix » tournés vers le grand public, le premier défi à relever est celui de se faire une place dans l’économie de l’attention, qui consiste à retenir l’attention justement – véritable ressource rare – des utilisateurs déjà saturés de contenus en tout genre. « Pour nous, il s’agit de prendre du temps à d’autres activités de loisirs. Notre croissance est fondée sur la qualité de l’expérience, comparée à toutes les autres façons de passer du temps devant un écran », avait expliqué en début d’année Reed Hastings, tout en admettant qu’« [il] luttait et perdait davantage face à Fortnite que face à HBO ». Le patron de Netflix, avec ses 158 millions d’abonnés aujourd’hui dans le monde (dont 6 millions en France), s’est pourtant dit confiant à force de miser sur la qualité de l’expérience de ses clients. Mais cela suffira-t-il pour retenir tous ceux qui seront tentés d’aller s’abonner ailleurs, notamment chez Stadia de Google, ou chez le futur « xCloud » de Microsoft, voire auprès de PlayStation Now (PSN) de Sony (700.000 abonnés séduits depuis cinq ans), lorsque cela ne sera pas sur Prime Video d’Amazon en pleine offensive ?
La puissance de feu de Stadia, premier cloud gaming d’un géant du Net et que dirige Phil Harrison (photo), réside non seulement dans l’investissement que Google (filiale d’Alphabet) met dans son infrastructure mondiale de centre de données, mais aussi dans les capacités informatiques dédiées à sa nouvelle plateforme de jeux vidéo en ligne. Car en matière de cloud gaming, l’idée est que les abonnés vidéo-ludiques n’ont plus à se préoccuper de la performance de leur propre matériel et carte graphique : tout est dans le nuage et dans le réseau. Plus besoin d’installer une configuration de jeu suffisamment puissante, et donc coûteuse. Un écran – smartphone, tablette, télévision connectée, ordinateur – et une manette compatible feront l’affaire.
C’est la plateforme de cloud gaming qui s’adapte de façon optimale au terminal utilisé, tant en termes de puissance de calcul que de qualité vidéo. Toute la puissance informatique se situe sur les serveurs distants de Stadia. La définition de l’image (HD, ultra-HD, 4K ou 8K) et la réactivité du jeu (très faible temps de latence) reposent sur la puissance de calcul (processeurs performant) et la vitesse du réseau (bande passante élevée, sur la fibre optique et la future 5G). Ces méga-capacités délocalisées dans les nuages donnent naissant à un marché mondial des jeux vidéo complètement dématérialisés, puissance de calcul comprise. Le fait que l’utilisateur n’aura plus à investir dans du matériel trop coûteux tel que tour gaming, PC gamer, carte graphique full ou ultra HD, processeur graphique GPU (Graphics Processing Unit) ou multi-GPU, etc. Du coup, au-delà des geeks et aficionados du jeux vidéo déjà tout équipés, le cloud gaming devrait attirer un nouveau public de joueurs occasionnels (casual gamers). Le potentiel de ces utilisateurs familiaux prêts à s’abonner à un « Netflix » du jeu vidéo en ligne est évalué à plusieurs millions de personnes, voire à des dizaines de millions de nouveaux-venus à travers le monde.

Un marché mondial encore embryonnaire
Google proposera plusieurs abonnements, en fonction du profil des joueurs, à commencer cette année par « Stadia Pro » pour 9,99 dollars par mois. Depuis le lancement du 19 novembre dans une quinzaine de pays, Stadia propose pour l’instant 22 jeux vidéo et d’ici la fin de l’année une trentaine de titres. Mais, hormis l’effet « Noël », la vraie montée en charge de la plateforme de Google devrait intervenir durant l’année 2020 avec un catalogue plus étoffé et une offre de base encore plus grand public. Le marché mondial du cloud gaming permet ainsi aux joueurs en ligne de s’affranchir des contraintes matérielles avec des jeux vidéo totalement dématérialisés, bien plus que ne le permet les jeux en streaming où la puissance d’exécution dépend encore du niveau de gamme côté joueur.
Mais, pour l’heure, force est de constater que ce segment de marché est encore embryonnaire par rapport à la taille globale du jeu vidéo : le cloud gaming a généré à peine plus de 300 millions de dollars en 2018, sur un total mondial du jeu vidéo de 120 milliards de dollars. Autrement dit, si l’on se réfère à ces chiffres compilés par SuperData Research (groupe Nielsen) et l’Idate : le cloud gaming ne pèse qu’un quart de 1 % du marché ! En France, où le jeu vidéo (terminaux, équipements et jeux) totalise en 2018 un chiffre d’affaires de 4,9 milliards d’euros TTC, selon le Sell ; ou 3,6 milliards d’euros HT, selon l’Idate, le tout-dématérialisé est encore quasi-inexistant.

Microsoft et Amazon en embuscade
Les promesses de Google avec Stadia, premier GAFAM à débarquer sur ce marché naissant, seront attentivement scrutées, à commencer par le pionnier Sony qui a divisé par deux en octobre dernier le prix de son abonnement à PSN (à 9,99 dollars/9,99 euros par mois) pour s’aligner sur « Stadia Pro ». Si Stadia réussit à conquérir 10 millions de gamers en un an, l’Idate estime que Google aura réussi son pari.
De son côté, Microsoft se prépare activement en vue du lancement en 2020 de son « Project xCloud » pour ne pas se laisser distancer par Stadia. Le cloud gaming constitut surtout pour le « M » de GAFAM un relais de croissance potentiel, au moment où sa Xbox One montre des signes de faiblesse dans ses ventes qui stagnent. Il faut dire que sa console de huitième génération a fêté ses six ans d’existence le 22 novembre dernier. Or la neuvième génération, identifiée sous le nom de « Projet Scarlett » et dévoilée en juin dernier à la grand-messe E3 à Los Angeles, ne sera disponible que… fin 2020. Pour contrer Google, Microsoft a même annoncé au printemps dernier une alliance avec son rival de toujours Sony dans le jeu en streaming. Leur accord prévoit « des développements communs pour leurs services de jeux et contenus en streaming ». Le cloud gaming fait clairement partie du périmètre de cette alliance Microsoft-Sony. Le géant américain du logiciel pour PC et le fleuron nippon de l’électronique grand public vont ainsi conjuguer leurs savoir faire dans les jeux vidéo et dans le cloud, notamment avec Azure (2). Microsoft a posé des jalons dans le streaming vidéoludique avec Xbox Live et la diffusion en live de jeux en ligne en lançant en 2017 le service Mixer (3) pour concurrencer Twitch d’Amazon. Il y a un an, soit dix-huit mois après son lancement, Microsoft indiquait que Mixer avait séduit 20 millions d’utilisateurs mensuels. Le projet xCloud est un défi autrement plus élevé. A l’occasion de son événement X019 à Londres (mi-novembre), dédié à tout l’univers Xbox, la firme de Redmond a dévoilé la deuxième phase des développements du xCloud qui fait l’objet d’une version bêta aux Etats-Unis, en Grande-Bretagne et en Corée du Sud (non disponible en France à ce stade). Son ouverture en Europe est prévue en 2020.
Amazon, non seulement géant du e-commerce mais aussi géant du cloud avec sa filiale AWS (4), est lui aussi en embuscade. Déjà fort de sa plateforme Twitch, la plateforme de jeux vidéo en streaming rachetée en août 2014 pour 970 millions de dollars, Amazon pourrait aussi se lancer en 2020 dans le cloud gaming. En tout cas, le site Cnet.com a repéré une annonce d’emploi « New AWS Gaming Initiative » (5). Et qu’est-ce qui empêcherait la firme de Jeff Bezos de devenir dans la foulée éditeur de jeux vidéo ? A l’instar de Netflix qui a ses « Originals », les géants du cloud gaming en formation auront leurs jeux vidéo exclusifs produits par et pour eux-mêmes. Microsoft a déjà ses exclusivités-maison, comme « Gears 5 ». Sony en a quelques-uns tels que « God of War ». Google a fait développer par le studio Tequila Works son premier jeu exclusif, « Gylt », disponible sur Stadia.
Quant au chinois Tencent, il pourrait créer la surprise dans le cloud gaming avec son service Instant Play, depuis qu’il s’est allié en début d’année dans ce domaine à l’américain Intel. Les américains Valve et Nvidia, déjà positionnés avec leur plateforme de streaming respective – Steam et GeForce Now – sont également attendus au tournant. L’américain Electronic Arts, leader mondial des jeux vidéo, teste encore son « Project Atlas » (6) dans les nuages. Sans oublier la start-up française Blade qui a procédé à une nouvelle levée de fonds de 30 millions d’euros (soit au total 100 millions d’euros depuis sa création en 2015) pour accélérer le déploiement de son offre virtuelle Shadow (ordinateur dématérialisé pour jeux vidéo).

Développements pour tous écrans et Big Data
Pour les créateurs de jeux vidéo, le cloud gaming est d’ailleurs l’assurance de moins dépendre des performances plus ou moins à la hauteur des équipements des joueurs, tout en développant des jeux adaptés d’emblée à l’ensemble des terminaux et écrans accédant à une plateforme unique dans le nuage. Pour les plateformes, c’est pour elles l’opportunité d’accéder au Big Data que va générer massivement le cloud gaming intégrant un réseau social de gamers, afin d’exploiter à leur profit les données personnelles et les données de jeux pour adapter et faire évoluer leurs offres. @

Charles de Laubier

Médiamétrie s’apprête à désigner la personne qui succèdera à son PDG Bruno Chetaille, sur le départ

L’institut de mesure d’audience Médiamétrie aura un nouveau président pour ses
35 ans. Bruno Chetaille avait fait savoir, dès fin 2017 à son conseil d’adminis-tration, qu’il souhaitait partir. La personne qui lui succèdera fin mars 2020 va être désignée
le 25 septembre prochain. C’est un poste hautement stratégique mais exposé.

La troisième personne qui présidera Médiamétrie, après sa fondatrice Jacqueline Aglietta et son successeur Bruno Chetaille (photo), sera connue dans les prochains jours. « La décision sera prise lors du conseil d’administration de septembre. Le process suit son cours », indique à Edition Multimédi@ Raphaël de Andréis (1), président du comité de nomination de Médiamétrie, dont il est membre du conseil d’administration. Selon nos informations, cette réunion d’intronisation est fixée au 25 septembre. Bruno Chetaille avait signifié dès fin 2017 son souhait de partir. Afin de procéder au recrutement dans la plus grande sérénité et d’assurer le tuilage, la décision avait été prise en juin 2018 de prolonger le mandat de l’actuel PDG jusqu’à fin mars 2020.
Les auditions des candidats se sont déroulées durant cet été devant le comité de nomination par délégation du conseil d’administration, au sein duquel siègent aussi Delphine Ernotte (présidente de France Télévisions), Nicolas de Tavernost (président
du directeur du groupe M6), Ara Aprikian (directeur général adjoint de TF1 chargé des contenus), Sibyle Veil (présidente de Radio France), Frank Lanoux (vice-président d’Altice Media) ou encore Jean-Luc Chetrit (directeur général de l’Union des marques).

Nomination scrutée par les clients et coactionnaires
C’est que tout le monde médiatique et publicitaire que compte la France surveille comme le lait sur le feu le processus de désignation du troisième président de cette entreprise,
dont les mesures d’audience sont aussi déterminantes pour les grilles des programmes
que sensibles pour l’économie publicitaire des chaînes de télévision, des stations de radio, des sites web et même des salles de cinéma.
Chez Médiamétrie, rien ne se fait sans l’aval et le consensus des professionnels des médias, des annonceurs et des agences, dont certains détiennent chacun une participation minoritaire du capital de l’entreprise : côté médias (65 % du capital), Radio France, Europe 1 (Lagardère), SFR Média (Altice), TF1, France Télévisions, l’Ina, Canal+ ou encore M6 ; côté publicité (35 %), l’Union des marques, DDB (Omnicom), Dentsu Aegis, Havas Media, Publicis ou encore FCB. Désigner la personne qui présidera aux destinées d’un Médiamétrie de plus en plus digital, data, global et international nécessite une grande précision, afin de trouver le mouton à cinq pattes capable de relever les défis qui se présenteront à lui. Au moins trois noms ont circulé : Yannick Carriou (PDG de Teknowlogy/ex-CXP, ancien d’Ipsos Connect), Sébastien Danet (président d’IPG Mediabrands France, ancien de Publicis Media) et Denis Delmas (président du Cnam Incubateur, ancien de TNS-Sofres et d’Havas). Convaincants ? Aucun commentaire chez Médiamétrie.

Après les fortes turbulences du « Fungate »
La personne retenue devra avoir les épaules solides pour assumer la lourde responsabilité de ce tiers de confiance médiatique très exposé. Bruno Chetaille, PDG de Médiamétrie depuis décembre 2006, en est à son quatrième mandat. Sur les treize années passées à la tête de cet institut de mesure d’audience, ce fut sans doute le plus difficile. L’affaire dit « Fungate » a été éprouvante. Fun Radio (RTL Group/M6) s’est rendue coupable en 2016 d’avoir gonflé ses mesures d’audience au détriment des ses concurrentes, un animateur ayant conseillé à ses auditeurs de mentir aux enquêteurs de Médiamétrie. NRJ (NRJ, Chérie, Nostalgie, Rire & Chansons), Lagardère (Europe 1, RFM, Virgin Radio), Skyrock, les Indés Radios (131 radios) et NextRadioTV (Altice Média) s’en sont plaints et ont fait faire une enquête au Centre d’étude des supports de publicité (CESP). En décembre 2016, ils ont déposé plainte devant la justice pour « concurrence déloyale ». Cependant, au cours des deux années suivantes, quatre des plaignants – sans que RTL Group ne les désigne dans son dernier rapport annuel où il fait le point sur cette affaire – ont mis un terme à leur action en justice.
Le reste de la procédure est suspendue en attendant le rapport de l’expertise judiciaire demandée par Fun Radio en décembre 2017 et accordée par la Cour d’appel de Versailles. Selon RTL Group, ce rapport d’expertise judiciaire portant sur les corrections effectuées par Médiamétrie sur les audiences de Fun Radio qui les conteste, était attendu pour « le deuxième trimestre 2019 »… pas de nouvelle. Mi-2016, Médiamétrie avait suspendu les résultats d’audience de Fun Radio, avant de les réintégrés mais en les corrigeant à la baisse du premier semestre 2016 au premier semestre 2017. L’institut a justifié ces correctifs sur un an pour prendre en compte « un effet halo ». Contestant la méthode de calcul aboutissant, selon elle, à de « très lourdes corrections » de son audience, la radio « dancefloor » de RTL Group avait alors engagé un bras de fer judiciaire avec l’institut en l’accusant de « traitement discriminatoire depuis plus d’un an ». L’issue de ce « Fungate » dépendra donc des conclusions de l’expert. Par ailleurs, le 5 août dernier, des radios privées comme NRJ, RFM, Skyrock ou encore Virgin Radio ont contesté les sondages de Médiamétrie… en Corse. Ironie de l’histoire, Bruno Chetaille quittera Médiamétrie après cette zone de turbulences, lui qui a pris la succession de Jacqueline Aglietta dans une période également agitée. A l’époque, au printemps 2006, les chaînes de télévision et des agences de publicité avaient vivement reproché à Médiamétrie son retard dans la mesure des nouvelles chaînes de la TNT et dans les nouvelles technologies. Ces critiques auraient précipité le départ de sa fondatrice. Sous l’ère « Chetaille », l’entreprise de mesure d’audience a modernisé ses méthodes de calcul, étendu ses compétences aux nouveaux médias et est passée de 43 millions d’euros de chiffre d’affaires en 2005 à 102,7 millions en 2018. En janvier 2011, Médiamétrie publie les premières audiences TV intégrant le différé (2) grâce notamment à l’automatisation par watermarking. A partir d’octobre 2014, le fameux « Médiamat » (ex-Audimat) intègre le replay (catch up ou télé de rattrapage). Puis en janvier 2016, les résultats des chaînes cumulent les audiences en live (à l’antenne), en différé et en catch up TV (3). Depuis mars 2017, la durée d’écoute globale à domicile de la télévision comprend la consommation « 4 écrans » (téléviseur, ordinateur, tablette, smartphone), en live, en différé et en replay. La nouvelle génération d’audimètres est au format d’une tablette (appelée TVM3). « En 2020, la consommation hors du domicile sur un écran de TV (bar, gare, aéroport, lieux publics, etc.), mais aussi en vacances, en week-end ou encore dans la résidence secondaire, sera intégrée à la mesure de référence. Puis, elle intègrera aussi l’audience des programmes TV consommés sur les trois écrans Internet (ordinateur, tablette, smartphone) », indique Médiamétrie à Edition Multimédi@. Cette mesure hors domicile et plus individualisée est rendue possible grâce à un petit audimètre portable dont sont équipés 10.000 personnes constituant le panel.
Cependant, dans son audit annuel du Médiamat publié le 26 juillet dernier, le CESP recommande une meilleure prise en compte des plateformes OTT (4) telles que Netflix, et des nouveaux équipements comme les TV connectées, Apple TV ou encore Chromecast. Pour l’heure, Médiamétrie applique progressivement la mesure TV « 4 écrans » à certains OTT : depuis 2017 à Molotov et depuis 2018 à myCanal. Les services de SVOD Netflix et Amazon Prime Video devaient suivre. « Nous travaillons avec d’autres acteurs pour en étendre le périmètre », nous indique Médiamétrie, qui a déjà lancé en juin le « baromètre Netflix » des films et les séries les plus regardés sur ordinateur et mobile. Concernant la plateforme YouTube, elle est la première à intégrer la mesure Internet vidéo « 3 écrans », laquelle remplace depuis janvier la mesure vidéo Internet. La première publication de la mesure YouTube interviendra courant septembre.

Vers un standard commun de la data média
Côté radios, la mesure s’est faite jusque-là sur l’écoute directe sur poste de radio, autoradio, ordinateur, smartphone, baladeur ou encore tablette. Depuis cette année, le « Global audio » analyse désormais l’écoute de la radio, des web radios, des podcasts natifs, des plateformes de streaming musical ou encore des livres audios (5). Data, géolocalisation et programmatique se sont installés au coeur de la stratégie de Médiamétrie, qui, avec ses data scientists, a l’ambition de créer un standard commun de la data média en France. Une nouvelle ère s’ouvre. @

Charles de Laubier