Mediawan, présidé par Pierre-Antoine Capton et Pierre Lescure, accélère dans le numérique et voit grand

Fondée fin 2015 par Pierre-Antoine Capton, Matthieu Pigasse et Xavier Niel, avec Pierre Lescure comme président du conseil de surveillance, la société Mediawan met les bouchée-double dans le digital et s’installe sur près de 10.000 m2 avenue de Breteuil dans le 7e arrondissement de Paris.

C’est en septembre que Mediawan s’installe dans 9.490 m2 de bureaux qu’il loue désormais à Covéa Immobilier (1) avenue de Breteuil dans le 7e arrondissement de la capitale. Et ce, pour « réunir tous ses talents à Paris en un lieu unique, dédié à la production et à l’innovation des contenus audiovisuels et digitaux ». Il s’agit aussi de créer des synergies entre les quatre pôles que sont Mediawan Originals, Mediawan Animation, Mediawan Rights et Mediawan Thematics. Le groupe audiovisuel – dont le directoire est présidé par le cofondateur Pierre-Antoine Capton (photo) (2), lequel est intervenu le 16 septembre devant de Club audiovisuel de Paris (CAVP), et le conseil de surveillance par Pierre Lescure (3) – veut être « le leader de la fiction et de l’animation en Europe » et « un véritable incubateur de talents ». Le site de l’avenue de Breteuil a été présenté le 15 juillet dernier comme « un centre dédié à la création et production de contenus », qui sera un lieu de formation et abritera en outre « une salle de projection de 200 places, un auditorium, des studios digitaux, des salles d’écriture… ». Le but est de réunir en un seul lieu « des auteurs et des créateurs ».

Produire pour Netflix, Amazon Prime Video, YouTube, Facebook, Snapchat, …
C’est là que Edouard Benadava vient de prendre ses fonctions de directeur du digital (4) du groupe qui a l’ « ambition de devenir un acteur clé dans l’univers digital ». Sa nomination a été annoncée le 29 août, après qu’il ait été débauché de chez Google où il était depuis 2015 responsable des partenariats médias de YouTube. « Il a, à ce titre, travaillé sur la stratégie digitale des diffuseurs, producteurs et éditeurs, aussi bien en termes de contenus que de monétisation. Il a également lancé et supervisé la production des deux premières séries françaises YouTube Originals », a souligné Mediawan.
Le groupe du trio Capton-Pigasse-Niel mise à fond sur la première plateforme vidéo mondiale, où il revendique en 2019 « plus de 4 milliards de vidéos vues sur YouTube et plus de 13 millions d’abonnés cumulés sur YouTube, Facebook et Instagram ». Le réseau social Snapchat, très « jeune génération », n’est pas en reste puisque Mediawan y a lancé cette année deux programmes et une application de Gaming pour la série « Miraculous : Ladybug et Chat noir » (téléchargée déjà plus de 60 millions de fois). Dans Continuer la lecture

Réseaux sociaux et plateformes vidéo : les influenceurs dans le collimateur de la régulation

Les influenceurs du Net sont suivis par des milliers voire des millions d’abonnés, de fans ou d’amis qu’ils informent ou conseillent. Ils vantent des marques et des produits dont ils font la publicité. L’aura de ces bloggeurs en fait des médias d’influence en marge de la régulation audiovisuelle. Pour l’instant.

Le Danemark envisage d’encadrer les influenceurs. Qu’ils soient sur YouTube, Facebook, Instagram, Twitter, Dailymotion, Pinterest ou Twitch, lorsque ce n’est pas sur d’autres plateformes vidéo ou réseaux sociaux, ces éditeurs individuels – hommes ou femmes – ont acquis pour certains une très forte audience. Le 8 juillet dernier, la ministre danoise de l’Enfance et de l’Education, Pernille Rosenkrantz-Theil (photo), a publié sur son compte Facebook un commentaire appelant à responsabiliser ces influenceurs. « Nous devons mieux nous occuper des enfants et des jeunes sur les médias sociaux – et entre nous en général. Par conséquent, nous devrions nous efforcer de faire en sorte que les règles en matière d’éthique de la presse s’appliquent aux titulaires de profils [influenceurs] de grande taille, qui devraient assumer des responsabilités analogues à celles de l’éditeur. (…) Nous devons mieux nous occuper des enfants et des jeunes, ainsi que de la communauté sur le Web », a expliqué la ministre danoise.

Soumettre les influenceurs « aux règles de l’éthique »
Deux jours après, son ministère publiait un communiqué se posant la question : « Les blogueurs ont-ils une responsabilité ? ». Pour Pernille Rosenkrantz-Theil, la réponse est oui : « Les profils sur les médias sociaux qui comptent de nombreux adeptes doivent être soumis aux règles de l’éthique ». Sa déclaration est intervenue après qu’une blogueuse connue et influente – Fie Laursen (star de la télé-réalité au Danemark) – ait publié un message de suicide sur son compte Instagram, lu et commenté par des dizaines de milliers de jeunes (elle comptait 334.000 abonnés en août). La star du petit écran et des réseaux sociaux avait été hospitalisée mais ses écrits funèbres étaient, eux, restés en ligne. La mère de Fie Laursen s’en était même émue sur la chaîne TV 2 Danmark : « On aurait préféré que le post soit supprimé, mais cela n’a pas été faisable ; cela fait mal au coeur car le message pouvait inspirer d’autres jeunes ». Le ministère danois concerné a aussitôt Continuer la lecture

Contenus toxiques : la régulation des réseaux sociaux devra être a minima européenne, voire mondiale

La commission des affaires culturelles de l’Assemblée nationale s’est réunie le 21 mai pour examiner la proposition de loi pour lutter contre la haine sur Internet. Le texte sera débattu à partir du 19 juin à l’Assemblée nationale. Mais la rencontre entre Emmanuel Macron et Mark Zuckerberg, le 17 mai, avait des allures de négociation.

La pression monte autour de la députée Laetitia Avia (photo), la rapporteure de la proposition de loi visant à lutter contre la haine sur Internet, mais aussi sur les réseaux sociaux eux-mêmes. Le texte, qui fut déposé le 20 mars à l’Assemblée nationale à l’initiative du gouvernement et du président de la République, doit être débattu à partir du 19 juin prochain au Parlement. Il s’inspire de la loi allemande de 2017, appelée « NetzDG« , en imposant aux Facebook, YouTube, Twitter et autres Snapchat, de retirer ou de rendre inaccessible dans un délai maximal de 24 heures après notification tout contenu haineux. Sont visés les contenus comportant une incitation à la haine en général et toutes injures discriminatoires en raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap.

La durée de 24 heures ne plaît pas à « Zuck »
Le Conseil d’Etat, dans son avis du 16 mai, a demandé plus de « clarté » sur les contenus listés au regard de ceux « odieux » déjà visés dans l’article 6 de la loi dite LCEN sur la confiance dans l’économie numérique. Le manquement à cette obligation de retrait sous 24 heures sera passible d’une sanction pécuniaire fixée et infligée par le Conseil supérieur de l’audiovisuel (CSA) – aux pouvoirs encore renforcés (1) – et pouvant atteindre 4 % du chiffre d’affaires annuel mondial (sur l’exercice précédent) de la société opérant ce réseau incriminé. Ainsi, dans le cas de Facebook qui a fait l’objet d’un rapport de mission d’experts en France remis le 10 mai au secrétaire d’Etat au Numérique, Cédric O, l’amende pourrait atteindre 2 milliards d’euros (2) en cas d’infraction à cette future loi française. La France marche donc dans les pas de l’Allemagne, les deux pays de l’axe cherchant à convaincre leurs partenaires européens à Continuer la lecture

Facebook (15 ans d’âge et moult scandales) : Mark Zuckerberg est responsable mais… pas coupable

Mark Zuckerberg, qui détient la majorité des droits de vote de Facebook alors qu’il en est actionnaire minoritaire, concentre tous les pouvoirs en tant que président du conseil d’administration. A bientôt 35 ans, le philanthrope milliardaire est intouchable malgré les scandales à répétition impactant le premier réseau social du monde.

Bernard Arnault, quatrième plus riche du monde, pourrait se voir détrôner en 2019 par Mark Zuckerberg (photo), qui le talonne à la cinquième place des plus grandes fortunes de la planète. Comment un jeune Américain, qui va tout juste sur ses 35 ans (le 14 mai) pourrait-il faire subir un tel affront à un vénérable Français, deux fois plus âgé que lui et à l’aube de ses 70 ans (le 5 mars) ? La richesse du geek, PDG de Facebook, a grimpée plus vite en un an que celle du patriarche, PDG de LVMH, pour atteindre au 8 février respectivement 65,5 et 76,3 milliards de dollars, selon le « Billionaires Index » de l’agence Bloomberg.
La fortune de Mark Zuckerberg a augmenté sur un an plus vite (+ 13,5 milliards de dollars) que celle de Bernard Arnault (+ 7,7 milliards à la même date). Pour un trentenaire qui perçoit seulement un salaire annuel de… 1 dollar, depuis 2013 et conformément à sa volonté, contre 500.000 dollars auparavant, et sans recevoir non plus depuis de primes ou d’actions, c’est une performance ! Ses revenus proviennent en fait de ses actions qu’il détient en tant qu’actionnaire minoritaire de Facebook.

L’autorité anti-trust allemande (BKartA) menace Facebook d’une amende
Mais les 17 % que le fondateur détient encore la firme de Menlo Park (Californie), cotée en Bourse depuis mai 2012, ne reflètent pas vraiment son pouvoir de contrôle puisqu’il possède 60 % des droits de vote. Zuck – comme le surnomment ses proches collaborateurs – contrôle en effet Facebook grâce à une structure capitalistique très particulière composée de deux types d’actions : celles de « classe A » cotées en Bourse, mais surtout les « classe B » non cotées et à droits de votes préférentiels, ces dernières lui permettant de détenir plus de la majorité des droits de vote – bien que détenteur minoritaire du capital. Autant dire que le jeune multimilliardaire est, en tant qu’actionnaire de référence de Facebook, le seul maître à bord et ne peut être évincé sans son accord par le conseil d’administration qu’il préside !
« [Mark Zuckerberg] est en mesure d’exercer son droit de vote à la majorité du pouvoir de vote de notre capital et, par conséquent, a la capacité de contrôler l’issue des questions soumises à l’approbation de nos actionnaires, y compris l’élection des administrateurs et toute fusion, consolidation ou vente de la totalité ou de presque la totalité de nos actifs », souligne le groupe Facebook qui Continuer la lecture

L’éthique, mode alternatif de régulation de l’IA et vecteur de confiance dans l’innovation

Les intelligences artificielles (IA) fascinent et semblent faciliter nos vies. Pourtant, elles nourrissent aussi des craintes et de véritables questionnements quant à leur impact sur la société, voire l’humanité. L’éthique peut constituer l’un des piliers de la confiance nécessaire au développement de l’IA.

Par Mahasti Razavi, associé gérant, et Laura Ziegler, avocat senior, August Debouzy

Il existe une distinction entre des IA dites
« faibles » et des IA dites « fortes ». L’IA faible permet de reproduire, le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique prévu à l’avance, dans la majorité des cas de façon bien plus efficace et rapide que l’homme, mais sans aucune forme d’improvisation. Si elle peut simuler le raisonnement, inclure une dimension apprenante et résoudre des problèmes, ce type d’intelligence artificielle ne permet en aucun cas de reproduire les fonctions cognitives de l’intelligence humaine.

IA « faible » : source de préoccupations
Chatbots, outils de reconnaissance vocale (Assistant/Google, Cortana/Microsoft, Siri/Apple, Alexa/Amazon) ou de reconnaissance d’images, ou encore robotique : cette forme d’IA « faible » est celle qui nous accompagne dans notre vie de tous les jours.
A cette IA « faible » est opposée une « IA forte », qui serait non seulement capable
de reproduire des aptitudes à la réflexion et à l’interaction intelligente (analyse, raisonnement, actions rationnelles), mais pourrait en outre comprendre son propre fonctionnement et avoir ainsi une réelle « conscience » d’elle-même. A cette étape, l’intelligence de la machine dépasserait donc celle de l’homme dans tous les domaines, y compris dans la créativité et dans l’agilité sociale. Si l’IA forte fait l’objet d’une préoccupation légitime en termes d’éthique, il n’en demeure pas moins que l’IA
« faible » doit également nous interpeller à cet égard.
Dans ce cadre, l’éthique apparaît comme un enjeu majeur pour penser et développer une IA responsable. L’une des premières sources d’inquiétude et de questionnements se concentre autour de l’effet pervers des algorithmes et de l’IA pouvant répercuter
et surtout amplifier un certain nombre de discriminations. En effet, si l’IA permet un traitement plus efficace de la donnée et a priori plus objectif de la donnée, l’algorithme est toujours le reflet d’un système de valeurs et de choix de société, à travers son paramétrage, ou ses données d’apprentissage. Aussi, les critères sur lesquels reposent les systèmes prédictifs peuvent être à l’origine de la reproduction et/ou de l’accentuation d’inégalités, de phénomènes d’exclusions et de discrimination, généralement causés par des biais cognitifs (1). Ces biais peuvent affecter directement ou indirectement les algorithmes (dès leur conception ou parce qu’ils n’auront pas été assez entraînés) mais encore les données intégrées dans le système ou générées par celui-ci (manque de diversité des bases de données d’apprentissage, par exemple).
Un algorithme permettant le fonctionnement d’un outil de reconnaissance faciale, s’entraînant sur une base de données qui ne serait pas assez diverse, peut ainsi présenter des défaillances dans la reconnaissance de visages. Autre illustration : les biais de genre révélés par la plateforme publicitaire de Google, AdSense, par laquelle les femmes se voyaient proposer des offres d’emploi bien moins rémunérées que celles adressées aux hommes, à un niveau similaire de qualification et d’expérience. Les algorithmes de prédiction, qui présentent aussi des risques d’exclusions, peuvent permettre aux entreprises d’anticiper les comportements ou les tendances de comportement de leurs clients, et d’automatiser en grande partie certains processus
ou d’aider à la prise de décision (2). Cette automatisation et cette dynamique de personnalisation des offres et des services peuvent naturellement avoir pour effet d’exclure l’accès de certaines personnes à ces services. C’est d’ailleurs l’une des raisons pour laquelle ce sujet a été très strictement encadré par la législation applicable en matière de données à caractère personnel et renforcée avec l’entrée en application du RGPD (3).
L’effet algorithmique qui consiste à classer et à filtrer des données, analysées en grande masse, est également un sujet préoccupant : ces algorithmes apprenants analysant nos comportements auront tendance à nous proposer constamment des objets (en fonction des achats effectués et des prédictions de nos futurs besoins),
des personnes (nos amis visibles sur les réseaux sociaux), des cultures (profilage
« Netflix ») conformes à nos goûts.

Risque d’enfermement algorithmique
Cela n’aura-t-il pas pour effet de nuire à un certain pluralisme et plus généralement
à la diversité culturelle ? A l’échelle de la société, ce phénomène pourrait constituer
– notamment en matière politique – un danger pour la qualité du débat public, la diversité de l’information et plus généralement le fonctionnement de notre démocratie. Alors que l’IA investit même les rédactions journalistiques et permet de traiter un grand nombre d’informations, de rédiger automatiquement certains articles ou encore de faire de la veille d’actualité, la mise en place – dans ce cadre précis – d’une IA responsable et éthique permettant d’éviter cet enfermement algorithmique, de lutter contre les fakes news, de respecter les engagements de diversité, de pluralisme et de déontologie de l’information paraît là encore indispensable.

Equilibre entre traitement et accès
En outre, l’IA impliquant l’utilisation massive des données à des fins d’apprentissage, elle pose là encore de nombreuses interrogations sur l’équilibre entre le traitement et l’accès aux données par les acteurs de l’IA et la protection des données à caractère personnel et des droits des personnes concernées. Sans algorithme, les données sont muettes, et sans donnée, l’algorithme est aveugle. A ce sujet, les principes de
« minimisation des données », l’encadrement du profilage, de la prise de décision exclusivement automatisée et les obligations de transparence figurant dans le RGPD marquent déjà les premières bases d’une technologie souhaitée plus responsable et respectueuse des droits et libertés des individus, même si ce n’est pas sans générer
de nombreuses difficultés en pratique. Plus généralement, la recherche de ce point d’équilibre entre la nécessaire protection des libertés individuelles et le développement libéré d’une technologie utile pour l’homme nourrit l’ensemble des réflexions autour de l’IA. S’il n’existe pas aujourd’hui de cadre juridique global et déterminé permettant de prendre en compte toute la complexité de ces nouvelles technologies intelligentes, les principales problématiques juridiques en matière notamment de propriété intellectuelle, de responsabilité, de protection des données à caractère personnel peuvent être aujourd’hui tout à fait encadrées par les textes existants. Parce qu’il s’agit par nature d’une technologie en mouvement, il nous semble « urgent de ne rien faire ! » et souhaitable que l’IA s’appuie sur la régulation existante et évolue de manière progressive avec celle-ci. Les règles et les limites qui lui sont applicables peuvent être par ailleurs conçues, dans un premier temps, de manière non contraignante, telle une soft law de plus, afin d’atteindre une certaine maturité. C’est ici tout le sens de l’éthique pensée comme une méthode alternative aux régulations, permettant de déclencher les consciences individuelles et collectives, devenue outil d’accompagnement du droit. L’éthique est constituée par un ensemble de normes édictées par l’industrie auxquelles celle-ci choisit de donner une force contraignante. Le contenu de ces normes peut reprendre en partie le droit existant, mais également aller bien au-delà. C’est en ce sens que s’est positionnée la Cnil (4) dans son rapport, publié le 15 décembre 2017, sur les enjeux éthiques des algorithmes et de l’IA (5). Elle a décliné six recommandations opérationnelles dans ce domaine – plaçant l’éthique au cœur de celles-ci en insistant notamment sur la nécessité de : former à l’éthique tous les acteurs-maillons de la chaîne algorithmique, rendre les algorithmes compréhensibles, constituer une plateforme nationale d’audit des algorithmes, encourager la recherche sur l’IA éthique ; et renforcer la fonction éthique au sein des entreprises (6). L’éthique apparaît désormais comme un enjeu crucial et un outil indispensable pour sensibiliser les utilisateurs mais également ceux qui contribuent à la conception et la commercialisation de ces systèmes d’IA aux enjeux attachés à son usage. Cette prise de conscience est très présente notamment chez les professionnels du secteur privé qui ont intégré l’éthique au cœur de leurs transformations digitales (lire encadré ci-dessous).
A ce jour, le développement d’une IA éthique semble être à l’évidence porté par une régulation alternative, choisie et sectorielle, à la recherche d’une gouvernance adaptée. Elle nécessitera toutefois inévitablement une mobilisation internationale d’ampleur, ou à tout le moins européenne, pour permettre l’identification des grand enjeux de société et éviter l’émergence d’éventuelles dérives : un « shopping éthique » (7) ou encore un nouveau phénomène d’« Ethicwashing » (8). L’IA éthique pourrait au contraire constituer la clé de l’attractivité des entreprises, puis des Etats conscients de son importance pour leur leadership en matière d’innovation. @

ZOOM

Les initiatives pour une IA éthique se multiplient
De très nombreux acteurs provenant de l’industrie de la tech – mais pas uniquement – se sont saisis du sujet et ont mis en place un grand nombre d’outils, au sein même de leurs organisations, pour développer une IA éthique et de confiance (9). Microsoft ou IBM, ont adopté, par exemple, des chartes et des codes éthiques sur l’utilisation de l’IA. Google annonçait le 7 juin 2018 – en réaction à une mobilisation d’une partie de ses salariés (10)– le lancement d’une charte éthique, articulée autour de sept principes très concrets applicables à l’IA (11). Ces sociétés ont également très récemment uni leurs forces en créant le 28 septembre 2018 un partenariat dans ce domaine : « Partnership on Artificial Intelligence to Benefit People and Society » (12), afin de définir de bonnes pratiques dans ce domaine. Du côté de la justice cette fois, le comité éthique et scientifique de la justice prédictive a adopté le 19 novembre 2018 une charte éthique qui est à ce jour uniquement contraignante pour la « Legaltech Predictice » qui s’y est volontairement soumise, mais qui a vocation à terme à servir à l’ensemble des acteurs utilisant l’IA dans le monde du droit. Plus récemment encore, le 3 décembre 2018, le Conseil de l’Europe adoptait la première charte européenne relative à l’usage de l’IA dans le monde judiciaire (13). Enfin, le monde scientifique, de la recherche et de l’industrie a appelé à un développement responsable de l’IA (14) en créant vingt-trois principes fonda-mentaux d’orientation de la recherche et des applications de l’IA (15). @

Le chinois Bytedance, à la tête du réseau social TikTok (ex-Musical.ly), serait valorisée 75 milliards de dollars

La start-up chinoise Bytedance, créée en 2012 par Zhang Yiming, fait un carton chez les 11-14 ans avec son réseau social musical TikTok (ex-Musical.ly). Les jeunes s’y amusent ; les parents s’en émeuvent. Négociant une levée de fonds,
la société aurait une valorisation supérieure à celle d’Uber.

Si les BATX sont à la Chine ce que les GAFA sont aux Etats-Unis, c’est à se demander si le « B » des BATX – normalement Baidu, Alibaba, Tencent et Xiaomi (1) – ne va pas devenir Bytedance, tant cette start-up chinoise commence à faire de l’ombre aux autres géants du Net de l’Empire du Milieu. Les GAFA aussi en tremblent, de voir cette entreprise pékinoise fondée en 2012 par Zhang Yiming (photo) rencontrer un réel succès dans le monde avec plus 500 millions d’utilisateurs rien que pour son réseau social TikTok.

Créativité spontanée et expression libre
Bytedance s’est fait très rapidement un nom grâce à l’application Musical.ly (60 millions d’utilisateurs) que l’entreprise a rachetée il y a un an (en novembre 2017) pour la fusionner avec sa propre application TikTok en août dernier. Selon le New York Times
et le Wall Street Journal, qui ont évoqué des discussions en vue d’une levée de fonds de 3 milliards de dollars, cette « unicorn » chinoise pourrait se retrouver avec une valorisation supérieure à celle d’Uber : 75 milliards de dollars. Le nom Musical.ly
– créé par la start-up éponyme basée à Shanghai (Chine) et Santa Monica (Californie) – disparaît au profit de TikTok. Jusqu’alors concurrentes, ces deux applications pour mobile ont rencontré un franc succès auprès des préados, qui se sont donnés le mot dans leur collège. Très populaire en Chine, TikTok est ainsi parti à la conquête des jeunes – souvent des filles – aux Etats-Unis et en Europe.
Les collégiennes s’y donnent à coeur joie en faisant de la figuration musicale, de la création de mini-comédies musicales, du playback, de la danse, des sketches, des reprises de scènes cultes de films ou de séries, le tout sous forme de vidéos courtes de 15 secondes (avec filtres, synchronisations, 3D ou encore défis à relever), à partager avec leurs fans. La synchronisation de lèvre (lip sync) fait coïncider la créativité de l’enfant avec la musique grâce au machine learning et à l’intelligence artificielle. C’est bon enfant, étonnant de créativité, éloquent de spontanéité, et le résultat parfois surprenant. Bref, l’on comprend que les préados soient conquis(es). En France, TikTok (ex-Musical.ly) revendique 2,5 millions d’utilisateurs. Selon un baromètre « BornSocial » de l’agence Heaven, réalisé en partenariat avec l’association Génération Numérique, Snapchat et Instagram sont toujours en tête des réseaux sociaux utilisés par les 11-14 ans, mais TikTok s’est hissé au troisième rang, juste devant WhatsApp, reléguant Facebook en cinquième position, et encore plus loin Twitter.
Comme pour la plupart des réseaux sociaux, l’inscription y est interdite au moins de 13 ans, pourtant de plus en plus nombreux. L’usage de TikTok en France est en croissance de plus de 12 points entre 2017 et 2018 dans les classes de 5e. L’applications est
« très largement féminine » (62 % des filles en 5e déclarent être inscrites). « Malgré leur jeune âge, les pré-adolescents développent une vision et un usage mature des plateformes sociales. Les réseaux sociaux sont perçus comme une commodité de communication. L’adoption des fonctionnalités de diffusion éphémère leur permet une expression libre, sans contrainte de surveillance », relève Génération Numérique (2). Cette association, reconnue d’utilité publique, forme aux « bons usages » d’Internet à destination des enfants et des adolescents.
Pour autant, des voix parentales mettent en garde contre les risques, selon eux,
de perversion, d’exhibitionnisme, de narcissisme, ou encore de harcèlement que constituerait TikTok. « Très axé sur l’image, le réseau social pousse ses utilisateurs à l’exhibition et peut pour les plus fragiles, avoir des conséquences dramatiques. Les jeunes utilisatrices imitent leurs stars préférées (danseuse, chanteuse…) et adoptent des postures sexualisées et de fait, inadaptées à leur jeune âge », s’inquiète l’association e-Enfance (3). Et la Police nationale d’appeler à la vigilance : « Votre ado utilise #TikTok ? Attention, il est peut-être la cible de propositions sexuelles mal intentionnées. S’il en est la victime, rendezvous en commissariat pour porter plainte. L’auteur encourt deux ans de prison et 30.000 euros d’amende » (4). Mais aucun alarmiste n’oserait interdire cette application populaire.

TikTok, mais aussi Toutiao, Xigua Video, …
Bytedance n’a pas que TikTok comme plateforme. Sa première application se nomme Toutiao, que l’on pourrait traduire par « headlines », un agrégateur d’information et microblogging très prisé en Chine, avec son pendant international TopBuzz. Même principe que pour TikTok : le recours à des algorithmes de machine learning. Bytedance édite aussi Xigua Video (clips vidéo) ou encore News Republic (agrégateur de vidéos). Au total, Bytedance totalise 800 millions d’utilisateurs dans le monde. @

Charles de Laubier

Fabrice Fries, PDG de l’AFP : « Trouver un équilibre entre notre visibilité sur Internet et nos clients »

A la tête de l’AFP depuis huit mois, Fabrice Fries a répondu le 3 décembre aux questions de l’Association des journalistes médias (AJM) – notamment sur la prolifération des dépêches à travers les sites web et blogs, ainsi que sur le « droit voisin » réclamé par la presse face à Google, Facebook et autres agrégateurs d’actualités.

Si les dépêches de l’AFP se retrouvent reprises par une multitude de sites de presse en ligne et des blogs d’information, qui les mettent en libre accès sur Internet et les mobiles, à quoi bon pour les médias de s’abonner aux « fils » de l’AFP ? C’est l’une des toutes premières questions posées par l’Association des journalistes médias (AJM) à Fabrice Fries (photo), président-directeur général de l’Agence France-Presse depuis le 15 avril 2018. « Vous pointez le doigt sur un vrai sujet. La vraie question est un problème d’équilibre à trouver entre un minimum de visibilité sur les sites (web) et la génération du chiffre d’affaires que l’on fait avec nos clients », a-t-il répondu. Cette surabondance en ligne de dépêches d’agences de presse telles que celles de l’AFP, mais aussi de Reuters, d’Associated Press (AP) ou encore de Bloomberg, ne date pas d’hier mais elle n’a jamais été aussi visible depuis que la presse sur Internet (1) est apparue avant les années 2000, accompagnée d’une multiplication de sites web et de blogs d’information. Cette prolifération de dépêches – plus ou moins « bétonnées » (2) – aboutit à un effet « moutonnier » des médias en ligne, avec pour conséquence une uniformisation de l’information. Cela tend à décrédibiliser au passage le journalisme et la presse aux yeux du grand public, les internautes et les mobinautes se retrouvant à lire les mêmes dépêches d’un titre à l’autre, ou ayant une impression de déjà lu…

L’AFP face au « copié-collé » de ses dépêches sur le Net
Ce « copié-collé » médiatique a d’ailleurs été démontré par une étude publiée en mars 2017 par l’Institut national de l’audiovisuel (INA) et intitulée « L’information à tout prix » (3). Ses auteurs ont décrit l’ampleur du phénomène et les liens de cause à effet : « Sur l’actualité chaude, (…), nous avons montré que deux-tiers du contenu était en fait du copié-collé, ce qui vient, d’une part, d’une utilisation très forte des dépêches d’agences, que ce soit l’AFP mais aussi Reuters ou AP. D’autre part, cela est lié au fait qu’on a malheureusement des rédactions qui ont pas mal réduit la voilure ». Résultat : « 64 % de ce qui est publié en ligne est du copié-collé pur et simple » !

Anti-piratage : l’AFP surveille Web et TV
L’AFP se retrouve face à un sérieux dilemme, d’autant que, une fois les dépêches publiées en ligne par de nombreux éditeurs de sites web, de blogs ou d’applications mobiles (abonnés ou pas à l’AFP d’ailleurs), ces mêmes dépêches accessibles gratuitement sur Internet peuvent être reprises et partagées en l’état par les internautes et mobinautes. Quelque peu embarrassé par le problème soulevé par l’AJM, Fabrice Fries a indiqué que cela rejoignait la question de la lutte contre le piratage de photos ou de vidéos produites par l’agence de presse, laissant répondre sur ce point Marie-Noëlle Vallès, nommée directrice de la marque et de la communication de l’AFP en novembre dernier : « Nous-mêmes, nous mettons en ligne et sur les réseaux sociaux une sélection de dépêches. C’est en effet un outil de visibilité et un enjeu d’attractivité de
la marque. Sur le texte, la lutte contre le piratage est très compliquée. Pour l’image (photos et vidéos), nous avons en revanche un outil technologique très élaboré de
lutte contre le piratage », explique-t-elle, également en charge du développement commercial de la vidéo au sein de la direction commerciale et marketing de l’AFP –
où elle est entrée il y aura 30 ans en 2019.
Selon nos informations, l’Agence France-Presse a confié il y a plus de deux ans à PicRights la gestion du respect des droits d’auteur des images qu’elle produit (3.000 photos et 75 infographies par jour). Cette société suisse basée à Zürich scanne les sites web à la recherche d’images AFP par similarité. Près de 400 millions de scans sont ainsi opérés chaque année pour l’AFP, dans une douzaine de pays pour l’instant (Europe, Amérique du Nord/Canada, Moyen-Orient et récemment Brésil). PicRights s’occupe non seulement de l’identification des photos présumées piratées, mais aussi de la collecte des sommes à payer auprès des éditeurs de sites web « en faute » pour rémunérer les ayants droit des images utilisées sans autorisation. Pour la vidéo, cette fois, l’AFP – dont la production est actuellement de 250 vidéos par jour – fait appel depuis plus de dix ans à Teletrax. Cette société britannique (basée à Londres et filiale de Medialink) scrute pas moins de 2.100 chaînes de télévision dans plus de 76 pays, afin de détecter très précisément les vidéos de l’AFP dans les programmes télévisés grâce à la technologie d’empreinte numérique développée par Civolution (4). Quant aux dépêches AFP, elles sont plus délicates à protéger dans la mesure où elles pullulent sur Internet au rythme des 5.000 produite chaque jour. Toujours selon nos informations, l’agence de la place de la Bourse a confié à la MatchHamster le pistage de ses textes sur le Web. Cette société néerlandaise (basée à Amsterdam) scanne tous les sites web (du moins ceux indexés par Google) pour calculer le pourcentage de similarité des pages « texte » des sites web avec les dépêches. « Normalement, nous concédons des droits de licence [avec un droit de reprise d’un certain nombre de dépêches par mois, ndlr] mais nous ne donnons pas le droit à nos clients de mettre tous nos contenus sur les plateformes (en ligne). C’est pour cela que nous pensons être légitimes à bénéficier du droit voisin », a expliqué le patron de l’AFP devant l’AJM. Faisant l’objet d’un âpre débat dans le cadre du projet de directive européenne sur le droit d’auteur dans le marché unique numérique (5), ce droit voisin a pour but de faire payer les Google News, Yahoo News et tous les agrégateurs d’actualité. C’est, selon Fabrice Fries,
« d’abord une question de principe avant d’être un enjeu de business ». L’AFP recours au cabinet de lobbying GPlus (groupe Omnicom) à Bruxelles. Il s’agit de faire reconnaître « la valeur de l’information en ligne, de qualité et honnête, qui a un prix », même sous la forme de snippets, ces courts extraits associés aux hyperliens. « Pour que l’on puisse suivre si rémunération il y a, il faudra que l’on ait des outils d’anti-piratage et de tracking », envisage-t-il. Le nouveau PDG, dont mandat de cinq ans court jusqu’au 15 avril 2023, compte-t-il donner encore plus de visibilité à l’agence sur Internet en sélectionnant encore plus de contenus (dépêches, photos et vidéos), comme peuvent le faire ses concurrents mondiaux Reuters, AP ou Bloomberg, et comme l’avait envisagé son prédécesseur Emmanuel Hoog avant d’y renoncer sous la pression des clients « presse » historiques de l’AFP ? « Ce n’est pas dans les dossiers que j’ais en ce moment. Pour moi, ce n’est pas d’actualité. On a déjà fait beaucoup ; l’AFP est déjà très présente (en ligne). Et cela rejoint la question de savoir ce que l’on retrouve sur Internet et quel est l’impact », a répondu Fabrice Fries. Bien que Emmanuel Hoog ait dû réfréner ses ambitions initiales de « sortir d’un système strict où les agences vendent des contenus aux journaux, qui les vendent au grand public » (6), jamais l’AFP ne s’est autant déployée sur Internet : site AFP.com, compte Facebook, chaîne YouTube, @AFP sur Twitter, AFPphoto, AFPsport et AFPentertainment sur Instagram, Making-of.afp.com, le site data EDNH.news européen, …

Internet et mobile : présence ambiguë
« Nous pourrions arriver sur Instant Articles [le fil d’actualité de Facebook, ndlr],
en tant qu’AFP. C’est en tout cas une possibilité que l’on étudie », avait même avancé Emmanuel Hoog devant l’AJM, le 5 avril 2017, ayant conscience de marcher sur des oeufs : « Quand je dis que l’AFP doit être présente sur Internet, cela a toujours été mal compris » (7). L’ambiguïté perdure. @

Charles de Laubier