Jeux de société, le retour

peine ai-je rejoint mon fauteuil dans la salle déjà plongée dans le noir que j’entame une expérience cross media encore inédite entre cinéma et social gaming. Au cœur d’images immersives à couper le souffle, mon avatar va commencer une traditionnelle partie d’échecs avec l’acteur-titre du film. Tout autour de nous, les avatars des membres de mon réseau social retiennent leur souffle. N’est-ce pas
la survie de notre système solaire qui se joue à travers cette ultime partie ! Que de chemin parcouru en quelques années. Les jeux vidéo, qui envahissent toujours plus de domaines, ont très tôt su tirer parti du formidable tremplin que représentent les réseaux sociaux. Ce nouveau segment du social gaming, qui en 2012 pesait déjà 36 % du marché du jeu en ligne (soit 13 % du marché du jeu vidéo global), enregistre une croissance telle que, dès 2016, il dépassa la barre des 10 milliards d’euros de chiffre d’affaires au niveau mondial.

« Finalement, il était temps que la dimension sociale
vienne aux jeux vidéo, tant le jeu se joue en société
depuis ses origines les plus anciennes. »

Par « jeu social », il faut comprendre tous les jeux, quel que soient leurs genres,
pratiqués dans le cadre d’un réseau social. L’intérêt est de jouer avec les « contacts »
de son réseau social, les « amis » dans le cadre de Facebook, qui donnent tout leur sens aux valeurs de compétition ou de coopération : comparaison de scores, demande d’aide pour atteindre un objectif, partage des sensations, … A ce titre, plus on est de fous mieux c’est ! L’expérience du joueur est en effet d’autant plus riche que le nombre de joueurs participant au même jeu est important, chaque joueur étant toujourmédis
au courant de ce que font les autres grâce à la présence de bandeaux informant de l’avancée d’un joueur, des publications dans le fil d’actualité du joueur, de l’envoi de notifications, … Né au coeur de la révolution Facebook, les spécificités et les frontières du jeu social ont fortement évolué au rythme des transformations des plates-formes elles-mêmes, mais également, en sortant de ce cadre initial. Le succès a en effet incité les autres segments du jeu vidéo à intégrer une dimension sociale. Ainsi, aujourd’hui,
la plupart des jeux vidéo – sur console, sur ordinateur ou sur mobile – peuvent être qualifiés, d’une certaine manière, de jeux sociaux.
Mais avant d’en arriver là, les grands éditeurs de jeux sociaux ont dû s’émanciper de
la tutelle initiale de Facebook, allant même jusqu’à créer, dans certains cas, leur propre portail de jeux sociaux. Pendant ce temps, les acteurs traditionnels du jeu vidéo ont
tardé à saisir les opportunités de cette nouvelle tendance et à développer leur offre pour Facebook. Tous y ont cependant trouvé un moyen d’attirer de nouveaux utilisateurs et une extension de leur modèle économique, à l’instar d’un Disney investissant massivement dans un catalogue Social Games. On est donc loin de l’époque pionnière où un seul acteur, Zynga, faisait l’actualité du marché, à travers des jeux occasionnels et de gestion de mondes virtuels – comme ses fameux Farmville, Cityville ou Castleville, …, alors largement majoritaires. Les jeux d’action et d’arcade ainsi que les jeux de rôle ont ensuite rapidement investi ce nouvel espace, suivi de
près par des jeux de plus en plus variés dans les catégories stratégie et combat, dont ceux développés par Kabam ou Kixeye qui ont littéralement explosé en 2014.
L’arrivée de nouveaux outils graphiques et l’accroissement des performances des plates-formes ont permis le développement de jeux sociaux proposant une expérience de plus en plus riche : des graphismes de plus en plus travaillés et en ultra haute définition, intégrant la 3D, des sons et des musiques très élaborés, sans oublier des gameplay permettant de jouer en temps réel. Des jeux sociaux qui n’ont aujourd’hui rien à envier aux autres jeux les plus époustouflants du catalogue. Finalement, il était temps que la dimension sociale vienne aux jeux vidéo, tant le jeu se joue en société depuis ses origines les plus anciennes.
De retour dans mon fauteuil, je dois maintenant bien avouer que j’ai dû quitter l’arène par la petite porte après un lamentable échec et mat, sous les regards navrés des membres de mon réseau social, pour laisser à des héros plus qualifiés que moi le soin de mettre, pour un temps, notre planète à l’abri. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Les phablettes
* Directeur général adjoint de l’IDATE. Sur le même thème,
l’institut a publié son rapport
« Social Gaming : Marchés et tendances 2012-2016 »,
par Laurent Michaud et Audrey Grel.

Unified States of Communication

Ce n’est pas la peine d’entretenir un suspens inutile. Nous sommes en 2020, mais nos moyens de communication n’ont pas encore franchi une nouvelle barrière technologique majeure. Si la visiophonie commence à être disponible en 3D et dispose des dernières avancées de la réalité augmentée, rien de nouveau du côté de la communication holographique chère à Star Wars ou de la télépathie pourtant si commune durant l’âge d’or des romans de science-fiction. Pas de révolution donc, mais une poursuite des tendances à l’oeuvre depuis des années déjà, qui bouleversent en profondeur les usages, les outils
et l’économie des acteurs en présence. Nous avons pris l’habitude de représenter cette tendance de fond par l’image d’un iceberg. La partie émergée, la plus petite donc, ce sont les services de communication – voix, SMS et MMS – délivrés depuis toujours contre paiement par les opérateurs télécoms. La partie immergée, elle, correspond à ces outils de plus en plus nombreux – email, messagerie instantanée, voix sur IP – qui sont en augmentation constante, mais généralement gratuits. A titre d’exemple, il y a aujourd’hui plus d’un milliard d’utilisateurs de services de VoIP accessibles sur Internet, dits OTT (Over-The-Top), pour l’ensemble des Etats-Unis et de l’Europe des cinq plus grands marchés (UE5), alors qu’ils n’étaient que 374 millions en 2012. Paradoxe : on a jamais autant communiqué qu’aujourd’hui, alors que le revenu des services de communication baisse constamment, année après année.

« OTT et Tecos rivalisent en proposant
une expérience unique aux utilisateurs,
via des services de communication unifiés. »

Les revenus de la voix, fixe et surtout mobile, se taille encore dans l’EU5 la part du lion avec un chiffre d’affaires actuel de près de 90 milliards d’euros, mais contre 100 milliards encore en 2012. Même si peu à peu les services de communication OTT représentent
un chiffre d’affaires en hausse, ce n’est que pour un montant très modeste de moins de
7 milliards d’euros aujourd’hui, contre près de 3 milliards en 2012.
Au total, le marché des communications est soumis à une très forte pression. Certains parlent, comme pour d’autres secteurs concurrencés par l’Internet, de destruction de valeur. Cette évolution tient bien sûr à la part des services gratuits offerts par les acteurs OTT, mais pas seulement. En réalité, la baisse des revenus est également le fait des opérateurs télécoms eux-mêmes qui proposent leurs minutes de communication voix et les messages à des tarifs encore et toujours en baisse constante. Cette tendance qu’ont les opérateurs à détruire eux-mêmes la valeur de leur propre marché hyper concurrentiel, accélère encore cette évolution.
Dans cette véritable bataille, les acteurs des deux bords espèrent prendre l’avantage
en proposant une expérience unique aux utilisateurs, via des services de communication unifiés. Les OTT agrègent ainsi voix, messagerie, partage de fichiers, communication vidéo, en s’appuyant sur des réseaux Wifi, comme alternative aux réseaux des
« Telcos ». Une offensive qui s’est intensifiée dès 2013 par les premières applications
du WebRTC (Web Real-Time Communications), standard initié par Google permettant d’effectuer des conversations audio et vidéo en temps réel directement au travers du navigateur. Mozilla présentait son prototype dès 2012, tandis que Microsoft proposait
son propre standard pour se démarquer et mieux intégrer Skype à Internet Explorer.
Au même moment, Facebook testait au Canada la possibilité de téléphoner à un autre utilisateur de Facebook Messenger. Les opérateurs télécoms ont également saisi leur chance : dès 2012, Telefonica faisait l’acquisition de TokBox, start-up californienne fournissant une API (Application Programming Interface) gratuite de discussions vidéo
de groupe en ligne. Plus largement, Deutsche Telekom, France Télécom, Telecom Italia, Telefonica et Vodafone lancèrent le standard RCSe (Rich Communication Suite-enhanced) comme une réponse anti-OTT. Orange dévoilait ainsi fin 2012, Joyn, véritable service de communications unifiées.
Aujourd’hui que mon smartphone « couteau suisse » dispose enfin de services de communication universels intégrant tous les outils connus (voix, chat, vidéo, partage
de documents, …), je rêve parfois d’entrer en résistance, comme un Roland Moreno qui écrivait dans sa Théorie du Bordel Ambiant en 1990, que « tant qu’on n’aurait pas inventé la télépathie il faudrait renoncer à communiquer. » @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : L’avenir de l’audio
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut a publié son rapport
« Future of Communication 2020:Telco & OTT
communication-Market forecasts » par Soichi Nakajima.

Révolution sur l’e-Campus

Cette année, le major de promo d’une grande école d’ingénieurs fait la Une des sites d’information. Pourquoi
ce jeune étudiant, qui répond aux interviews exclusivement en visio, défraie-t-il la chronique ? Parce qu’il n’a jamais mis les pieds dans un amphi et a fait l’essentiel de son cursus sans quitter sa petite ville au cœur du Continent africain !
Il est emblématique mais il n’est pas un cas isolé. C’est le résultat d’une dizaine d’années d’ouverture des universités et des écoles aux nouveaux modèles d’enseignements numériques. Des centaines de milliers de jeunes suivent désormais à distance des cours de haut niveau, auparavant réservés à des effectifs bien plus réduits. En sortant de ses murs, l’université a fait un pas de plus vers la démocratisation multiséculaire du savoir. L’histoire technique du e-learning commence, comme souvent, après une longue période de gestation. L’un de tous premiers test fut le fait, au début des années 60, d’une équipe de professeurs en psychologie de l’université de Stanford qui expérimenta un enseignement des maths et de la lecture assisté par ordinateur pour des enfants
en classe élémentaire de Palo Alto.

« La destruction créatrice du Net s’attaque cette fois
– après la musique, la presse, le cinéma, le livre et la télévision – à une citadelle réputée imprenable : le savoir ».

L’université en ligne n’est en fait devenue réalité qu’avec les premières vidéothèques
de cours magistraux. Des initiatives individuelles ont non seulement été portées par les établissements eux-mêmes ou par des institutions comme le Collège de France mais également par des plateformes qui démarrèrent en France dès 2001 avec Canal-U. L’année suivante, aux Etats-Unis, ce fut au tour de l’OpenCourseWare du MIT, suivi
par des plateformes des géants du Net comme celle d’Apple qui lança iTunes U en 2007. Mais la véritable révolution commença à partir de 2011, lorsque les universités créèrent des sessions de cours dans des formats adaptés au Web et débouchant sur des diplômes. Le projet MITx permit ainsi à deux professeurs de dispenser un cours d’électronique spécialement conçu en ligne pour plus de 120.000 étudiants. Cette plateforme, rebaptisée EdX suite à l’adhésion d’Harvard, fut suivie par une initiative concurrente, Coursera, laquelle rassembla plusieurs universités autour de Stanford et
de Princetown. Il était maintenant possible de valider des études de qualité en suivant
à distance les programmes, moyennant parfois la moitié du prix du cursus traditionnel.
La destruction créatrice du Net était en marche, une fois de plus, en s’attaquant cette fois – après la musique, la presse, le cinéma, le livre et la télévision – à une citadelle réputée imprenable : le savoir. En devenant un véritable média en ligne, avec ses programmes, ses live et ses vidéos, les cours sont également devenus un marché ouvert. Une nouvelle génération de pure players est prête à tout pour inventer de nouveaux modèles économiques. Ainsi, Udacity s’est rapidement imposé comme véritable campus virtuel avec, dès 2012, plus de 23.000 étudiants de 190 nationalités différentes. Ce sont les futurs recruteurs qui payent les frais de scolarités, les diplômés bénéficiant de la gratuité des cours ! Le site Udemy, lui, a choisi de proposer une plateforme aux professeurs
qui souhaitent publier directement leur cours, sans même passer par la fac…
Depuis, des technologies très diverses ont enrichi l’expérience pédagogique, comme
le serious gaming, le sous-titrage participatif, les univers persistants ou la 3D. Certains avatars sont désormais célèbres dans ces amphis digitaux, comme le furent sur Ta toile
le philosophe Michael Sandel ou le professeur de finance Aswath Damodaran.
Mais au-delà de l’évolution technique, il s’agit d’une véritable révolution de la diffusion
du savoir et de la pédagogie. Si les professeurs s’isolent devant une webcam pour enregistrer des cours loin de leurs salles de classe, c’est pour mieux consacrer leur temps à coacher leurs étudiants. De même, une pédagogie inversée propose aux élèves d’apprendre à la maison et de faire leurs devoirs à l’école ! On est donc bien loin de ce cauchemar où les enfants du « Brave new world » d’Aldous Huxley apprenaient sans effort durant de profonds sommeils hypnotiques. Les « Socrate » d’aujourd’hui arpentent les réseaux numériques comme les Péripatéticiens d’hier transmettaient leur savoir aux novices entre le Portique et le Jardin… @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La presse en péril
* Directeur général adjoint de l’IDATE.

Docteur Live contre Mister Replay

En cette fin d’après-midi de juillet, tout le monde marque le pas pour regarder sur un écran l’alunissage d’une capsule spatiale et de son équipage. Un événement interplanétaire qui se déroule en direct, en full HD et en 3D. La Lune comme si on y était ! On est bien loin de cette retransmission qui nous ont émus en ce 21 juillet 1969, et qui, sur fond d’images tremblantes en noir et blanc, marqua pour toujours notre imaginaire. Un demi-siècle plus tard, l’homme est de retour sur la Lune, propulsé par une fusée chinoise, et servie par une superproduction digne d’Hollywood ! Le direct n’est donc pas mort, pas plus qu’il n’a déserté complètement les écrans de télévision. Mais la part réservée au live, dominante aux origines de la télévision, s’est peu à peu repliée jusqu’à ne concerner, par ordre d’importance, que les sports les plus populaires, les informations, quelques talk-shows
et, parfois, certaines représentations culturelles, comme des concerts, du théâtre ou
de l’opéra. Priorité était donnée durant ces dernières décennies aux programmes clés
en mains et aux émissions post-produites, télé réalité comprise (même si ce nom est trompeur). Cette part congrue a encore été réduite par les facilités offertes par le replay qui permet aux téléspectateurs et/ou internautes de s’affranchir de la dictature du direct. Ce fut bien sûr la chance de certaines émissions que de pouvoir être vues en différé sur le bon vieux poste de télé, mais aussi et surtout sur tous les écrans de toutes tailles. Une occasion, aussi, de se constituer un nouveau vivier de spectateurs et de prolonger la vie des programmes au-delà de la première retransmission.

« C’est Twitter TV qui a obtenu l’exclusivité
de la retransmission mondiale – en direct –
du retour de l’homme sur la Lune ! »

Pendant que le direct désertait la télé, de nouveaux médias l’accueillaient pour doper leur audience ou simplement offrir un nouveau service. A l’heure de la convergence permise par Internet et accélérée par la démocratisation des techniques de captage, d’encodage
et de diffusion, la radio propose en direct ses émissions phares et la presse organise des débats audiovisuels, lorsqu’elle ne suit pas ses correspondants et ses grands reporters en direct sur leurs terrains d’investigation. Quant aux salles de cinéma, elles mettent leurs grands écrans et leurs technologies numériques de pointe aux services de live de plus en plus varié pour un public de plus en plus large. Le Web, enfin, a permis à des acteurs modestes ou renommés, de proposer en direct de véritables grilles de programmes. Le live est donc loin d’être mort ! La salle Pleyel, la Citée de la musique et bien d’autres lieux culturels proposent ainsi sur leurs sites web la retransmission en direct de prestigieux concerts. Certaines ligues sportives telles que la NBA (NBA.tv) aux Etats-Unis et d’autres dans le monde – comme la LFP (LFP.tv) en France ! – proposent leurs propres services de streaming vidéo en live par abonnement accessible sur ordinateur, tablette et smartphone. L’intégralité des matchs de la saison de la première ligue indienne de cricket, l’IPL, est diffusée en live et en accès gratuit sur YouTube depuis dix ans déjà. Les opérateurs télécoms aussi s’y sont mis très tôt, comme SFR qui, dès 2012, proposait des concerts en direct à ses abonnées sur son site dédié SFR Live Concerts. Le Collège de France et presque toutes les universités « médiatisent » eux aussi les cours en direct de leurs professeurs, au bénéfice d’étudiants désormais admis dans des amphis virtuels. Sans oublier les géants du Net, comme YouTube Live, qui offrent des directs très variés : journaux d’actualités, événements sportifs, concerts, théâtres, télé-réalité, défilés de mode, opéras, tournois de jeux vidéo, …
C’est aussi la raison pour laquelle de grandes chaînes généralistes ont réinvesti massivement dans le direct. Une question de survie. Leur futur se trouve dans le téléviseur considéré par le public, aujourd’hui comme hier, comme le premier (grand) écran du foyer. Il y a urgence pour elles, car c’est Twitter TV qui a obtenu l’exclusivité
de la retransmission mondiale du retour de l’homme sur la Lune ! @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : L’e-learning
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son
rapport sur l’avenir de la télévision et de la vidéo :
« NextGen TV 2020 », par Gilles Fontaine.

Les nouvelles normes de compression vidéo ne suffiront pas à éviter l’engorgement des réseaux

Malgré l’arrivée de nouvelles générations de codages de compression multimédia pour optimiser la diffusion en haute définition, voire en 3D, Internet reste sous la menace d’une saturation des « tuyaux », notamment sur les derniers kilomètres.

Par Charles de Laubier

« La compression est l’une des clés pour répondre aux risques d’engorgement des réseaux, mais elle ne les résoudra pas pour autant, dans la mesure où la demande des utilisateurs pour de la vidéo en ligne et de la qualité toujours meilleure va aller croissant », nous a expliqué Eric Rosier, responsable des solutions TV pour les opérateurs télécoms et audiovisuels chez Ericsson, à l’occasion d’une tournée européenne sur les dernières innovations en la matière (1).

Après le Mpeg-Dash, le HEVC
Déployer des infrastructures réseaux ne suffit plus, même en très haut débit, s’il faut faire face à l’explosion sur Internet de la vidéo, de la télévision, de la catch up TV ou encore de la diffusion en live, sur fond de réception multiscreen, HD, ultra-HD voire 3D dans les foyers. L’année 2012 a pourtant bien commencé avec la publication, par l’organisation internationale de normalisation ISO (2) en avril dernier, des spécifications techniques du nouveau standard de diffusion multimédia sur Internet : le Mpeg- Dash, que le Moving Picture Experts Group a finalisé à la fin de l’année dernière (3) – soit près de vingt ans après la publication du premier standard de compression Mpeg-1 (vidéo CD et MP3), lequel fut suivi de Mpeg-2 (box et DVD) puis de Mpeg-4 (web multimédia fixe et mobile). Le Mpeg- Dash, lui, n’est pas un système de compression numérique mais plutôt un format dynamique de diffusion multimédia sur Internet – d’où son signe Dash (4), pour Dynamic Adaptive Streaming over HTTP. Le Mpeg-Dash fournit en effet un ensemble de caractéristiques techniques capables de supporter – sur le célèbre protocole de l’Internet développé par le W3C – la vidéo à la demande (VOD), le streaming live ou encore la gestion de légers différés (time shifting). Le streaming sur Internet – vidéo et télé en tête, mais également animations, graphiques, 2D ou encore 3D – a ainsi enfin sa norme de transmission « parapluie », vers laquelle les technologies propriétaires des Apple, Microsoft, Adobe, Google et autres Rovi (5) devraient toutes converger à terme. Tout comme des organisations professionnelles telles que l’Open IPTV Forum (OIPF), le 3GPP (opérateurs mobile), le HbbTV (6) (initiative européenne pour la TV connectée) et le HD Forum créé en France par TF1, M6, TDF, Numericable, Technicolor, Eutelsat et des fabricants de téléviseurs connectés. Les fournisseurs de contenus et les industries de la culture voient aussi dans Mpeg-Dash le moyen d’implémenter des protections DRM (7) qui deviennent ainsi opérantes entre elles. Le Mpeg-Dash apparaît surtout comme le metteur en scène de la prochaine génération de technologies de compression. Alors que la haute définition du Mpeg-4 n’a pas encore totalement remplacé la simple définition Mpeg-2 (encore présente sur TNT et ADSL), voilà qu’une super-norme de compression arrive pour lui succéder : le HEVC (High Efficiency Video Coding), qui permettra d’aller jusqu’à l’ultra-haute définition en 1080p (versus 720p), en 4K (8) ou en 3D – tout en divisant par deux la consommation de débits sur les réseaux (9), sans pertes de données visibles. « HEVC (H265) permet d’atteindre des gains de 50 % par rapport au Mpeg-4 (H264), ce qui devrait lui permettre de s’imposer rapidement », prévoit Eric Rosier. En février dernier, le projet de description a été finalisé. En juillet, il sera proposé comme standard international, avant d’être approuvé en janvier 2013. Les premiers équipements HEVC pourraient être prêts dès mi- 2013, mais les réseaux ne seront vraiment soulagés qu’à partir de 2014. Un autre équipementier télécom, l’américain Cisco, a publié fin mai une étude montrant que le trafic Internet allait être multiplié par quatre d’ici 2016 pour atteindre 1,3 zetta-octets, un « Zo » équivalant à mille milliards de giga-octets ! Au-delà de l’augmentation exponentielle de terminaux connectés, lesquels seront dans quatre ans presque 20 milliards en nombre pour près de 3,5 milliards d’internautes, c’est la vidéo qui sera prédominante. Cisco calcule qu’à ce moment-là 1,2 million de minutes de vidéo, soit l’équivalent de 833 jours de visionnage, circuleront chaque seconde sur Internet, auprès de 1,5 milliard de vidéonautes dans le monde (contre 792 millions en 2011). La vidéo mobile devrait être le service multimédia le plus dynamique, passant de 271 millions de « vidéomobinautes » en 2011 à 1,6 milliard en 2016. Le trafic des vidéos et des télévisions en HD et/ou en 3D connaîtra une augmentation multipliée par cinq entre 2011 et 2016.

« Tsunami » vidéo sur les réseaux
Quant aux téléviseurs connectés, ils devraient contribuer – toujours d’ici quatre ans – pour 6 % au trafic Internet mondial grand public et 18 % au trafic vidéo sur le Web. Face à ce « tsunami » vidéo, il y a donc urgence à trouver de nouveaux algorithmes d’encodage et décodage en temps réel encore plus performants. @