Adobe fête ses 35 ans en pleine forme grâce à ses acquisitions et à la croissance de ses abonnements

L’éditeur de logiciels de création, cofondée il y a 35 ans par Charles Geschke et John Warnock, a basculé avec succès dans le cloud pour y vendre par abonnements ses célèbres logiciels – Photoshop, Acrobat, Illustrator, … Son PDG, Shantanu Narayen, dispose d’une trésorerie confortable pour d’éventuelles nouvelles acquisitions.

Charles Geschke vient d’avoir 78 ans, le 11 septembre dernier. C’est le cofondateur avec John Warnock du numéro un des logiciels graphiques Adobe Systems – il y aura 35 ans en décembre de cette année. Photoshop, Acrobat, Illustrator, InDesign, Dreamweaver, Flash, …, mais aussi le langage PostScript : tous ces outils de création sont reconnus et utilisés mondialement dans la création,
le développement, les médias, le marketing, la communication et l’audiovisuel. Bien qu’il n’ait plus de fonctions opérationnelles dans le groupe depuis son départ à la retraite en 2000, Charles Geschke en a été néanmoins président du conseil d’administration jusqu’en janvier dernier.
Depuis le début de l’année, Shantanu Narayen (photo) lui a succédé tout en conservant ses fonctions de directeur général d’Adobe qu’il assume depuis décembre 2007. Cet Indien de 54 ans, né à Hyderabad, fêtera l’an prochain ses 20 ans chez Adobe Systems.

Au total, selon les calculs de Edition Multimédi@, Adobe investi en moins de dix ans quelque 4 milliards de dollars dans sa croissance externe (Omniture, Day Software, Demdex, Auditude, Efficient Frontier, Neolane, Fotolia
et TubeMogul).

Abonnements dans le cloud : 80 % du chiffre d’affaires
Il est à la tête d’une icône de la Silicon Valley (à San José), ni start-up mais multinationale ni licorne mais cotée en Bourse, qui prévoit de dépasser cette année les 7 milliards de dollars de chiffre d’affaires – à 7,24 milliards, selon le consensus d’analystes financiers – grâce à une croissance attendue de 23 % sur un an. Adobe Systems, dont le siège administratif est depuis dix ans situé dans le petit paradis fiscal américain qu’est l’Etat du Delaware, devrait aussi accroître sa rentabilité par rapport au résultat net affiché en 2016 et en hausse de plus de 85 % à 1,1 milliard de dollars.
Pour une entreprise du logiciel qui a survécu à 35 ans de grandes révolutions, aussi bien des technologies que des écosystèmes (d’Internet au cloud), c’est une belle performance. Adobe affiche – au 29 septembre 2017 – une capitalisation boursière
de 72,3 milliards de dollars au Nasdaq à New York, avec une action passée d’environ 30 dollars il y a cinq ans à près de 150 dollars aujourd’hui. En un an, le titre a bondi de 40 %. Ayant pris à temps le tournant de la dématérialisation des logiciels, Adobe est passé avec succès de la vente packagée en magasins à la vente d’abonnements en ligne grâce au mode Software-as-a-Service (SaaS) et maintenant le cloud computing. Depuis janvier dernier, la fameuse Creative Suite – incluant Photoshop, Acrobat, InDesign, Illustrator, Premiere Pro ou encore Typekit – n’est plus commercialisée.
La version 6, disponible depuis cinq ans, a été la dernière à être vendue en boîte.

Abonnements en cloud : 80 % des revenus
Cette année marque donc pour Adobe le basculement complet de son modèle économique dans le nuage informatique. Avec Creative Cloud, ses applications mises
à jour sans surcoûts sont désormais disponibles « exclusivement » via un abonnement (de 23,99 à 66,99 euros par mois) qui comprend aussi des services de tutoriels, des modèles intégrés ou encore – via Adobe Stock et Fotolia – 60 millions d’images, d’illustrations vectorielles, de vidéos et d’éléments en 3D – tous libres de droits. Adobe Sensei marque aussi l’offensive de la firme de San José dans la création complexe à partir d’intelligence artificielle (IA), de marchine learning et de deep learning. Adobe table ainsi sur ses revenus annuels récurrents – ou ARR pour « Annualized Recurring Revenue » – afin de pérenniser sa rentabilité. Les abonnements dépassent pour la première fois cette année les 80 % du chiffre d’affaires annuel (contre 78 % en 2016, par rapport aux 50 % de 2014) et le secteur des médias numériques y contribuent à plus des deux-tiers (plus de 3,3 milliards de dollars en 2016). A la fois présent dans
les médias numériques et le marketing digital, le groupe dirigé par Shantanu Narayen s’adresse à une vaste clientèle, ce qui en fait sa force : créateurs, graphistes, web designers, photographes, cinéastes, développeurs d’applications, professionnels des médias, éditeurs, agences de communication, mais aussi responsables marketing, publicitaires ou encore annonceurs. Adobe est du coup devenu un acteur majeur du
Big Data, avec plus de 90 trillions de transferts de données par an revendiqués.

Mais l’éditeurs des créateurs entend aussi séduire plus que jamais le grand public, comme l’a expliqué le PDG Shantanu Narayen le 19 septembre dernier, lors de la présentation de ses résultats financiers « record » pour le troisième trimestre : « Nous sommes en train de nous étendre dans l’espace créatif bien au-delà de notre base loyale de professionnels. Que cela soit pour “designer” un blog personnel ou pour produire un film court, les capacités de Creative Cloud se développent pour s’adresser aux besoins des jeunes d’aujourd’hui, des experts en médias sociaux et des créatifs enthousiastes, tout en repoussant plus loin les frontières technologiques pour nos pros créatifs les plus exigeants ». Ayant rencontré ses premiers succès sur les ordinateurs de bureau des graphistes professionnels, Adoba a su élargir sa base de clientèle au grand public, doté de tablettes et smartphones. Par exemple, Photoshop se décline en plusieurs applications mobiles telles que Photoshop Sketch, Photoshop Mix, Photoshop Lightroom ou encore Photoshop Fix. Mais c’est dans la création vidéo qu’Adobe voit la demande exploser avec pour les professionnels Premiere Pro, mais aussi Premiere Clip pour « créer des films à la volée à partir d’un smartphone » ou Adobe Spark pour
« créer des publications et graphismes pour les réseaux sociaux, des récits web et des vidéos animées », sans oublier des outils de réalité virtuelle et le 360 degrés renforcés par l’acquisition en juin dernier de la technologie Skybox intégrée dans Premiere Pro
et After Effects. La prochaine conférence annuelle Adobe Max, du 18 au 20 octobre prochains, révèlera son lot de nouvelles versions et applications. Elle devrait aussi sonner le glas du logiciel Flash Player qu’Adobe arrêtera définitivement en 2020 : l’annonce de la fin de ce lecture de vidéo – de moins en moins utilisés sur les navigateurs web – a été faite fin juillet. La croissance de Document Cloud, le pendant de Creative Cloud, permet à Adobe de capitaliser sur son célèbre logiciel Acrobat, devenu standard international dans la création et la lecture de documents, et sur son format PDF créé il y a maintenant 25 ans. Avec Adobe Scan, le PDF s’est aussi démocratisé sur les mobiles. Pour les entreprises, Adobe Sign permet la signature électronique de documents.
Dans le marketing digital, cette fois, où l’on retrouve des outils de communication,
de publicité et de mesure d’audience, la concurrence est plus rude puisqu’Adobe se retrouve face à aussi bien IBM, Oracle ou Salesforce ou SAP que Google ou Yahoo. Mais ses acquisitions successives ces dernières années lui permettent de réaliser 30 % de son chiffre d’affaires dans cette activité. Sa plus grosse acquisition fut celle en 2009 d’Omniture, société spécialisée dans les logiciels de mesures d’audience publicitaire sur Internet, pour 1,8 milliard de dollars. Elle fut suivie pas plusieurs achats de moindre ampleur entre 2010 et 2012 (Day Software, Demdex, Auditude et Efficient Frontier). En 2013, Adobe s’est emparé pour 600 millions de dollars de la société française Neolane spécialisée dans le marketing digital. Puis, après avoir racheté en 2015 Fotolia pour 800 millions de dollars, Adobe a jeté son dévolu l’an dernier sur TubeMogul, un éditeur de logiciel de publicité programmatique, en déboursant 549 millions de dollars.

1,7 Mds $ de cash : nouvelles acquisitions ?
Au total, selon les calculs de Edition Multimédi@, Adobe a investi en moins de dix ans quelque 4 milliards de dollars dans sa croissance externe. Et sa marge de manœuvre reste aujourd’hui intacte ; sa trésorerie a même grossi ces derniers mois en passant
de 1 milliard de dollars fin 2016 à 1,7milliard de dollars de cash disponible au 1er septembre dernier. @

Charles de Laubier

Les services OTT pèsent 10 % du monde digital

En fait. Le 6 juin, l’Idate – think tank européen spécialisé dans l’économie numérique, créé il y a 40 ans – a publié la 17e édition de son DigiWorld Yearbook sur l’état du monde digital. Les services Internet franchiront cette année les 10 % du marché mondial du numérique. Pour l’Europe, c’est déjà fait.

En clair. Lorsque François Schoeller (1934-2010) a créé en 1977 l’Idate (1), il était très loin de soupçonner que l’embryonnaire Internet de l’époque allait chambouler des pans entiers de l’économie et de la société. Quatre décennies après, l’Idate publie la nouvelle édition de son DigiWorld Yearbook qui montre la très forte dynamique des services Internet. Leur croissance mondiale en 2016 a été de 17,8 % sur un an (à 390 milliards d’euros), alors que les services télécoms peinent à croître de 1,5 % (à 1.204 milliards) et les services audiovisuels de 2,9 % (à 468 milliards). « Les revenus des services Internet comptent désormais pour près d’un cinquième du total du bloc [services et contenus télécoms, audiovisuels et Internet, ndlr], et contribuent aux deux tiers de sa croissance », souligne Didier Pouillot, directeur Télécoms à l’Idate. Internet tire d’autant plus la croissance du marché mondial de l’économie numérique que les services dits OTT (2) s’apprêtent à franchir pour la première fois cette année la barre symbolique des 10 % de l’ensemble des revenus numériques au niveau mondial – contre 9,2 %
en 2016. Ce seuil des 10 % vient d’être dépassé en Europe où ces services OTT ont généré 107.4 milliards d’euros en 2016 (voir tableaux p. 11). « Avec un éventail très disparate de services, le secteur Internet arrive toutefois progressivement à maturité. (…) Les internautes sont en effet friands de services offrant à la fois un confort accru et un gain financier par rapport à des services offline équivalents. C’est ce qui explique les développements très rapides de segments tels que le cloud computing (Salesforce), l’économie collaborative (autour d’Uber et Airbnb ou encore de Didi Chuxing en Chine) ou des contenus sur abonnement (avec notamment Netflix ou Spotify) », explique Vincent Bonneau, analyste Internet à l’Idate.
Internet absorbe en outre une part significative des revenus de la publicité, au detriment de la télévision (+ 0,8 % en 2016). «Les recettes publicitaires TV devraient continuer de pâtir de la croissance des usages en OTT, dont bénéficient en priorité les services de SVOD (+ 48,5 % en 2016) et plus modestement les services financés par la publicité (+37,8 %) », constate Florence Le Borgne, également analyste à l’Idate. D’ici 2025, les services Internet pourraient dépasser pour la première fois en valeur le marché des services télécoms (3). @

Cloud PVR, nPVR, Cloud TV, … Les chaînes TV gratuites menacées

En fait. Le 16 décembre dernier, se tenaient les 9e Assises de la convergence des médias – organisées par l’agence Aromates – sur le thème de « Audiovisuel français : la transformation par le cloud« . Les chaînes de télévision gratuites, comme M6, sont les premières à s’inquiéter de la publicité « skippable » dans le cloud.

Valéry GerfaudEn clair. La grande crainte des chaînes gratuites de télévision, telles que TF1, M6 ou celles de France Télévision, c’est le Cloud PVR – ces magnétoscopes numériques personnels en ligne dans le nuage informatique aux capacités de stockage illimitées – ou nPVR (Network Personal Video Recorder). Il s’agit d’un nouvel usage émergent grâce aux services de cloud grand public.
Cette capacité illimitée de « copie privée » à distance donne, d’un côté, des sueurs froides aux chaînes de télévision linéaires, et de l’autre, des possibilités infinies aux téléspectateurs désireux de s’affranchir des grilles de programmes et des coupures publicitaires intempestives. « Si l’on ne protège pas les revenus publicitaires des chaînes TV et leur capacité à rémunérer les ayants droits, on met totalement en danger l’écosystème de la télévision gratuite », s’est alarmé Valéry Gerfaud (photo), directeur de M6 Web, aux 9e Assises de la convergence des médias.

S’inspirer de l’accord chaînes-opérateurs en Allemagne
« Nous rémunérons les ayants droits (1) pour avoir une offre de contenus de qualité. Et si nous pouvons les rémunérer, c’est que l’on arrive à être financé par les annonceurs (publicitaires) prêts à payer cher des spots dans ce système. Or le nPVR challenge une partie de cet écosystème ». Ce qui pourrait mettre à mal, selon lui, les chaînes gratuites et leurs services de TV de rattrapage financés par la publicité (2). Et de s’interroger : comment pérenniser un écosystème audiovisuel reposant sur des fondements que
les potentialités du cloud comme le nPVR peuvent remettre en cause ou déstabiliser ?
Il y a des pays où le PVR fait l’objet de réglementation très forte ». Pour lui, il faudrait que la France s’inspire de pratiques d’autres pays comme l’Allemagne où les
chaînes de télévision ont mis très longtemps à se mettre d’accord avec les opérateurs télécoms (comme Deutsche Telekom) pour que ces derniers rendent la publicité non
« skippable » sur les enregistrements en PVR. « Certains ayants droits, en particuliers américains, nous fournissent leurs contenus seulement si nous leur garantissons qu’ils ne peuvent pas être enregistrés en nPVR. En France, on voit bien que la réflexion sur la réglementation et l’extension éventuelle de la rémunération pour copie privée au cloud (3) se confronte à cette évolution technologique du Cloud PVR qui soulève de nouvelles questions beaucoup plus vastes », a indiqué Valéry Gerfaud. Le débat est sensible. @

Pierre-François Racine, nouveau président du CSPLA, a déjà la tête dans les « nuages »

Les « nuages » s’amoncèlent au-dessus du Conseil supérieur de la propriété littéraire et artistique (CSPLA), dont Pierre-Français Racine vient d’être nommé président. Son projet d’avis sur « l’informatique en nuage » est contesté. La séance plénière
du 23 octobre s’annonce houleuse.

(Depuis la parution de cet article, le CSPLA a rendu son avis consultatif le 23 octobre 2012 et a adopté le rapport correspondant. La balle est dans le camp du gouvernement)

C’est un casse-tête. Réactivé il y a un peu plus d’un an maintenant, après trois ans de mise en sommeil, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) voudrait adopter lors de
sa prochain séance plénière du 23 octobre – qu’ouvrira la ministre Aurélie Filippetti – un projet d’avis sur « l’informatique en nuage » qui est vivement contesté par les opérateurs télécoms et les acteurs du Web. Mais, selon nos informations, le remplacement récent – par arrêté du 2 octobre – de Sylvie Hubac, devenue directrice de cabinet du chef de l’Etat, par Pierre-François Racine (notre photo), conseiller d’Etat,
à la présidence du CSPLA pourrait retarder l’adoption de cet avis qui est accompagné d’un rapport.

Apple, Amazon, Google, Orange, SFR, …
Que dit en substance l’avis du CSPLA ? « Les copies faites dans le cadre d’un service
de cloud computing ne peuvent bénéficier du régime de l’exception de copie privée et doivent donc faire obligatoirement l’objet – de la part des prestataires de ces “nuages informatiques” – de demandes préalables systématiques auprès des ayants droits ». Autrement dit : les Apple, Amazon, Google et autres Dropbox, ainsi que les centrales numériques des opérateurs télécoms Orange, SFR ou encore Bouygues Telecom (1), auraient une responsabilité nouvelle vis-à-vis des ayants droits. En effet, ces derniers
ne reconnaissent pas que les copies réalisées par un prestataire de cloud computing
et de stockage – pour le compte d’utilisateurs qui possèdent les fichiers d’œuvres – puissent entrer dans le cadre de l’exception de copie privée.
Si cet avis ne se prononce pas sur une taxe copie privée que les ayants droits souhaitent voir appliquée aux « nuages » (2), il tente en revanche de trancher une autre question tout aussi épineuse : celle du régime de l’exception de copie privée, laquelle autorise un utilisateur à faire des copies d’une oeuvre – musiques, films, journaux, radios, chaînes, livres, vidéos, photos, dessins, etc. – sans qu’il ait à demander l’autorisation aux ayants droits et/ou à payer en plus pour ces copies (3). Or, aux yeux des industries culturelles, il n’y a pas de « partage » – c’est-à-dire pas de « mise à disposition du public » (4) – mais uniquement du « stockage ». En conséquence, affirme le CSPLA, ceux qu’il appelle les « purs services de casier » ne peuvent bénéficier du statut d’hébergeur. Ce statut aménagé par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (loi dite LCEN) devrait en effet – revendiquent
les opérateurs télécoms et les plateformes du Web – leur accorder une responsabilité limitée en tant qu’hébergeurs, lesquels ne sont tenus responsables de piratage en ligne – et a fortiori des copies illicites – que si les contenus contrefaits leurs sont signalés par notification (5). Ainsi, les prestataires de nuages
– à l’instar des sites de partage vidéo comme YouTube ou Dailymotion (6) (*) (**)
– n’ont aucune obligation de contrôle préalable des contenus stockés chez eux et encore moins de filtrage ou de blocage généralisé des œuvres non autorisées. Contactée  par Edition Multimédi@, l’Association des services Internet communautaires (Asic)  – réunissant notamment Google, Microsoft, Yahoo, Dailymotion, Myspace, Spotify ou encore AOL – s’inscrit en faux contre l’avis du CSPLA : « Il n’entre pas dans cette mission du CSPLA de débattre à nouveau du statut des intermédiaires de l’Internet. L’interprétation adoptée par la commission [« Informatique en nuage »]
est totalement contraire aussi bien à l’esprit qu’à la lettre de la directive européenne “Commerce électronique” et même de la LCEN. Expliquer que les personnes qui stockent des fichiers pour le compte de tiers ne seraient pas des hébergeurs est, par définition même, une aberration », s’insurge Benoît Tabaka, secrétaire général de l’Asic et responsable des relations institutionnelles de Google France. L’Asic rejoint ainsi
la Fédération française des télécoms (FFT) qui, dans un courrier daté du 2 octobre adressé à l’avocat Jean Martin (président de la commission « nuage » du CSPLA) et révélé par notre confrère PC INpact (7), estime « extraordinaire » que cette instance juridique parapublique puisse remettre en cause le statut d’hébergeur.

La balle dans le camp d’Aurélie Filippetti
Le rapport et le projet d’avis, concoctés par la commission « Informatique en nuages », ont été transmis le 28 septembre à la cinquantaine de membres titulaires qui la composent (sans parler d’autant de suppléants…) pour recueillir leurs dernières remarques avant que le tout ne soit remis à la ministre de la Culture et de la Communication. @

Charles de Laubier

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.