Mediawan, présidé par Pierre-Antoine Capton et Pierre Lescure, accélère dans le numérique et voit grand

Fondée fin 2015 par Pierre-Antoine Capton, Matthieu Pigasse et Xavier Niel, avec Pierre Lescure comme président du conseil de surveillance, la société Mediawan met les bouchée-double dans le digital et s’installe sur près de 10.000 m2 avenue de Breteuil dans le 7e arrondissement de Paris.

C’est en septembre que Mediawan s’installe dans 9.490 m2 de bureaux qu’il loue désormais à Covéa Immobilier (1) avenue de Breteuil dans le 7e arrondissement de la capitale. Et ce, pour « réunir tous ses talents à Paris en un lieu unique, dédié à la production et à l’innovation des contenus audiovisuels et digitaux ». Il s’agit aussi de créer des synergies entre les quatre pôles que sont Mediawan Originals, Mediawan Animation, Mediawan Rights et Mediawan Thematics. Le groupe audiovisuel – dont le directoire est présidé par le cofondateur Pierre-Antoine Capton (photo) (2), lequel est intervenu le 16 septembre devant de Club audiovisuel de Paris (CAVP), et le conseil de surveillance par Pierre Lescure (3) – veut être « le leader de la fiction et de l’animation en Europe » et « un véritable incubateur de talents ». Le site de l’avenue de Breteuil a été présenté le 15 juillet dernier comme « un centre dédié à la création et production de contenus », qui sera un lieu de formation et abritera en outre « une salle de projection de 200 places, un auditorium, des studios digitaux, des salles d’écriture… ». Le but est de réunir en un seul lieu « des auteurs et des créateurs ».

Produire pour Netflix, Amazon Prime Video, YouTube, Facebook, Snapchat, …
C’est là que Edouard Benadava vient de prendre ses fonctions de directeur du digital (4) du groupe qui a l’ « ambition de devenir un acteur clé dans l’univers digital ». Sa nomination a été annoncée le 29 août, après qu’il ait été débauché de chez Google où il était depuis 2015 responsable des partenariats médias de YouTube. « Il a, à ce titre, travaillé sur la stratégie digitale des diffuseurs, producteurs et éditeurs, aussi bien en termes de contenus que de monétisation. Il a également lancé et supervisé la production des deux premières séries françaises YouTube Originals », a souligné Mediawan.
Le groupe du trio Capton-Pigasse-Niel mise à fond sur la première plateforme vidéo mondiale, où il revendique en 2019 « plus de 4 milliards de vidéos vues sur YouTube et plus de 13 millions d’abonnés cumulés sur YouTube, Facebook et Instagram ». Le réseau social Snapchat, très « jeune génération », n’est pas en reste puisque Mediawan y a lancé cette année deux programmes et une application de Gaming pour la série « Miraculous : Ladybug et Chat noir » (téléchargée déjà plus de 60 millions de fois). Dans Continuer la lecture

Réseaux sociaux et plateformes vidéo : les influenceurs dans le collimateur de la régulation

Les influenceurs du Net sont suivis par des milliers voire des millions d’abonnés, de fans ou d’amis qu’ils informent ou conseillent. Ils vantent des marques et des produits dont ils font la publicité. L’aura de ces bloggeurs en fait des médias d’influence en marge de la régulation audiovisuelle. Pour l’instant.

Le Danemark envisage d’encadrer les influenceurs. Qu’ils soient sur YouTube, Facebook, Instagram, Twitter, Dailymotion, Pinterest ou Twitch, lorsque ce n’est pas sur d’autres plateformes vidéo ou réseaux sociaux, ces éditeurs individuels – hommes ou femmes – ont acquis pour certains une très forte audience. Le 8 juillet dernier, la ministre danoise de l’Enfance et de l’Education, Pernille Rosenkrantz-Theil (photo), a publié sur son compte Facebook un commentaire appelant à responsabiliser ces influenceurs. « Nous devons mieux nous occuper des enfants et des jeunes sur les médias sociaux – et entre nous en général. Par conséquent, nous devrions nous efforcer de faire en sorte que les règles en matière d’éthique de la presse s’appliquent aux titulaires de profils [influenceurs] de grande taille, qui devraient assumer des responsabilités analogues à celles de l’éditeur. (…) Nous devons mieux nous occuper des enfants et des jeunes, ainsi que de la communauté sur le Web », a expliqué la ministre danoise.

Soumettre les influenceurs « aux règles de l’éthique »
Deux jours après, son ministère publiait un communiqué se posant la question : « Les blogueurs ont-ils une responsabilité ? ». Pour Pernille Rosenkrantz-Theil, la réponse est oui : « Les profils sur les médias sociaux qui comptent de nombreux adeptes doivent être soumis aux règles de l’éthique ». Sa déclaration est intervenue après qu’une blogueuse connue et influente – Fie Laursen (star de la télé-réalité au Danemark) – ait publié un message de suicide sur son compte Instagram, lu et commenté par des dizaines de milliers de jeunes (elle comptait 334.000 abonnés en août). La star du petit écran et des réseaux sociaux avait été hospitalisée mais ses écrits funèbres étaient, eux, restés en ligne. La mère de Fie Laursen s’en était même émue sur la chaîne TV 2 Danmark : « On aurait préféré que le post soit supprimé, mais cela n’a pas été faisable ; cela fait mal au coeur car le message pouvait inspirer d’autres jeunes ». Le ministère danois concerné a aussitôt Continuer la lecture

Contenus toxiques : la régulation des réseaux sociaux devra être a minima européenne, voire mondiale

La commission des affaires culturelles de l’Assemblée nationale s’est réunie le 21 mai pour examiner la proposition de loi pour lutter contre la haine sur Internet. Le texte sera débattu à partir du 19 juin à l’Assemblée nationale. Mais la rencontre entre Emmanuel Macron et Mark Zuckerberg, le 17 mai, avait des allures de négociation.

La pression monte autour de la députée Laetitia Avia (photo), la rapporteure de la proposition de loi visant à lutter contre la haine sur Internet, mais aussi sur les réseaux sociaux eux-mêmes. Le texte, qui fut déposé le 20 mars à l’Assemblée nationale à l’initiative du gouvernement et du président de la République, doit être débattu à partir du 19 juin prochain au Parlement. Il s’inspire de la loi allemande de 2017, appelée « NetzDG« , en imposant aux Facebook, YouTube, Twitter et autres Snapchat, de retirer ou de rendre inaccessible dans un délai maximal de 24 heures après notification tout contenu haineux. Sont visés les contenus comportant une incitation à la haine en général et toutes injures discriminatoires en raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap.

La durée de 24 heures ne plaît pas à « Zuck »
Le Conseil d’Etat, dans son avis du 16 mai, a demandé plus de « clarté » sur les contenus listés au regard de ceux « odieux » déjà visés dans l’article 6 de la loi dite LCEN sur la confiance dans l’économie numérique. Le manquement à cette obligation de retrait sous 24 heures sera passible d’une sanction pécuniaire fixée et infligée par le Conseil supérieur de l’audiovisuel (CSA) – aux pouvoirs encore renforcés (1) – et pouvant atteindre 4 % du chiffre d’affaires annuel mondial (sur l’exercice précédent) de la société opérant ce réseau incriminé. Ainsi, dans le cas de Facebook qui a fait l’objet d’un rapport de mission d’experts en France remis le 10 mai au secrétaire d’Etat au Numérique, Cédric O, l’amende pourrait atteindre 2 milliards d’euros (2) en cas d’infraction à cette future loi française. La France marche donc dans les pas de l’Allemagne, les deux pays de l’axe cherchant à convaincre leurs partenaires européens à Continuer la lecture

Responsabilité et données : le « Je t’aime moi non plus » des éditeurs en ligne vis-à-vis de Facebook

La pluralité de responsables dans le traitement des données personnelles n’implique pas forcément une responsabilité conjointe. C’est le raisonnement que devrait avoir la Cour de justice européenne dans l’affaire « Fashion ID ».
Or, son avocat général n’en prend pas le chemin. Erreur !

Par Etienne Drouard et Joséphine Beaufour, avocats associés, cabinet K&L Gates

L’éditeur d’un service en ligne – site web et/ou application mobile – peut-il être coresponsable de la collecte, par Facebook, des données personnelles des visiteurs de son service en raison de l’intégration d’un bouton « J’aime » de Facebook au sein de son service ? Selon l’avocat général de la Cour de justice de l’Union européenne (CJUE), lequel a présenté le 19 décembre 2018 ses conclusions dans l’affaire « Fashion ID » (1), la réponse devrait être « oui ».

Communauté d’intérêt et responsabilité
Cet avocat général (2) cherche à construire, en matière de protection des données personnelles comme en matière de propriété intellectuelle, un régime de responsabilité liée à l’insertion d’un lien hypertexte vers les services d’un tiers. En matière de propriété intellectuelle, il aura fallu 14 années de controverses avant de juger au niveau européen qu’un lien hypertexte peut être un acte de représentation d’une oeuvre nécessitant, pour celui qui intègre un lien au sein de son service, de recueillir l’autorisation du titulaire des droits attachés à l’oeuvre accessible via ce lien (3). En matière de protection des données personnelles, cette fois, quelle est la responsabilité pour l’éditeur d’un service en ligne résultant de l’insertion d’un lien hypertexte d’un tiers – en l’occurrence le bouton « J’aime » de Facebook – sur son site web, permettant à ce tiers de collecter des données personnelles des visiteurs du site web concerné ? Comme en matière de propriété intellectuelle, l’avocat général de la CJUE se demande si le critère décisif pour déclencher une telle responsabilité ne serait pas celui d’une communauté d’intérêts entre celui qui intègre le lien sur son site web et celui qui a conçu seul les fonctionnalités que ce lien déclenche. Dans cette affaire « Fashion ID » – du nom de la société allemande de vente en ligne de prêt-à-porter – il est établi que l’adresse IP et l’identifiant du logiciel de navigation du visiteur du site web de Fashion ID sont transmis à Facebook du fait de l’intégration d’un bouton « J’aime » sur ce site, même si le visiteur ne clique pas sur ce bouton « J’aime », et même s’il ne dispose pas d’un compte Facebook. La « Verbraucherzentrale NRW eV », une association allemande de protection des consommateurs a introduit une action en cessation à l’encontre de Fashion ID au motif que l’utilisation du bouton « J’aime » de Facebook sur ce site web était contraire aux lois allemandes sur la protection des données personnelles, lois transposant la directive européenne «Protection des données personnelles » de 1995. Puisque cette action ayant été introduite avant l’entrée en vigueur du RGPD (4), la CJUE rendra donc sa décision en application de cette directive de 1995 et des lois de transposition allemandes (5). L’association reproche ainsi à Fashion ID de n’avoir fourni aucune information à ses visiteurs sur l’existence d’une telle collecte par Facebook. Le régime de responsabilité entre Facebook et Fashion ID reste en suspens : est-elle conjointe, solidaire, ou distincte ? Pour obtenir une réponse fiable, l’association allemande a saisi la CJUE d’une question préjudicielle afin de savoir si Fashion ID peut être considéré comme « responsable du traitement » au sens de la directive de 1995, alors même qu’elle ne peut avoir elle-même aucune influence sur ce processus de traitement des données par Facebook ?
L’avocat général de la CJUE fait référence, dans ses conclusions, à l’arrêt
« Unabhängiges » (6) du 5 juin 2018 dont l’affaire serait similaire à celle de Fashion ID, au motif que : l’éditeur de site web intègre dans son site une fonctionnalité développée et mise à disposition par Facebook, permettant ainsi la collecte de données personnelles par Facebook, résultant de l’enregistrement par Facebook de cookies
sur les terminaux des visiteurs de sa page web. L’occasion de faire cette analogie ayant été trop belle, il en a conclu que le gestionnaire d’un site web qui y intègre un lien hypertexte installant le « plugiciel » (ou plugin en anglais) d’un tiers – en l’espèce,
le bouton « J’aime » de Facebook – permettant la collecte par ce tiers de données personnelles, devrait être considéré comme un « coresponsable » de cette collecte avec ledit tiers ayant conçu ce plugiciel.

« Unité de finalités et de moyens » : vague
Inventer des similitudes peut parfois tourner à la conversation de comptoir. L’avocat général a cherché à découvrir, coûte que coûte, « une identité de finalités et de
moyens » dans l’opération de collecte et de transfert des données personnelles pour que Facebook et Fashion ID soient jugés coresponsables. Selon lui, la détermination commune des moyens serait caractérisée par la décision prise par Fashion ID d’utiliser le plugiciel fourni par Facebook, outil permettant la collecte et la transmission des données personnelles à Facebook. Ainsi, tant Facebook que Fashion ID « paraissent donc avoir délibérément été à l’origine de la phase de collecte et de transmission du processus de traitement des données ».

Des conclusions dénuées de tout fondement
Par ailleurs, l’avocat général, a estimé que la finalité pour laquelle Fashion ID a intégré le bouton « J’aime » sur son site web serait d’améliorer la visibilité de ses produits par le biais du réseau social. S’il admet que cette finalité ne correspond pas à celle poursuivie par Facebook (à savoir le profilage des visiteurs à des fins de publicités ciblées), il affirme cependant que les deux parties « paraissent globalement poursuivre la même finalité d’une manière qui semble mutuellement assez complémentaire ». Le critère retenu ici ne serait donc pas l’identité de la finalité poursuivie, mais « une unité de la finalité : commerciale et publicitaire », critère beaucoup plus large, vague et sujet à interprétation que le premier. La conclusion à laquelle parvient l’avocat général est dénuée de tout fondement juridique connu ou prévu par les textes en vigueur hier ou aujourd’hui. D’une part, ni la directive de 1995, ni le RGPD, ni la CJUE jusqu’à présent, ne se fondent sur une « identité de finalités » ou encore une « unité de finalités », mais bien sur la détermination commune de finalités par les deux responsables de traitement, c’est-à-dire une (ou plusieurs) finalité(s) déterminée(s) d’un commun accord.
D’autre part, la détermination conjointe de moyens ne fonde pas la décision prise par un éditeur de site web d’intégrer un plugiciel d’un tiers sur sa page web. Il serait, au contraire, grand temps d’admettre qu’un seul et même moyen de traitement de données, peut servir des finalités et des intérêts différents, voire divergents, déclenchant des responsabilités distinctes pour des traitements de données qui peuvent être étrangers l’un de l’autre ou propres à un acteur, et échappant à la connaissance, au contrôle ou au bénéfice d’un autre acteur. C’est au prix de cette distinction des intérêts et des finalités, qu’on peut réguler l’économie numérique en évitant de confondre David et Goliath et de rendre un éditeur européen de services coresponsable de l’activité d’un vendeur américain de profils publicitaires. Fashion ID
et Facebook ne sont pas coresponsables de traitement ; Fashion ID n’a pas déterminé conjointement avec Facebook les finalités et les moyens qu’aura Facebook de traiter des données. La pluralité de responsables de traitement n’implique pas forcément une responsabilité conjointe. Autrement dit, quand on est plusieurs, on ne forme pas qu’un. Selon la directive de 1995, un responsable de traitement est « la personne physique ou morale qui, seule ou conjointement avec d’autres, détermine les finalités et les moyens du traitement de données à caractère personnel » (7). Cette définition a été reprise à l’identique dans le RGPD (8) : elle admet qu’il peut y avoir plusieurs coresponsables décidant conjointement de la finalité du traitement et des moyens à mettre en oeuvre pour la réaliser (9). S’il peut exister différents niveaux de responsabilité conjointe, pour tout ou partie d’un traitement de données, la question posée désormais à la CJUE est celle avant tout de savoir comment caractériser une telle responsabilité conjointe et non de la décréter par paresse lorsqu’on se trouve en présence de plusieurs acteurs autour d’un même moyen de traitement de données. Tant la directive de 1995 que le RGPD
de 2018 posent un critère repris par la CJUE, celui de la « détermination conjointe des finalités et des moyens » du traitement opéré par les personnes physiques ou morales. Or, l’avocat général ne reprend pas ce critère d’appréciation puisque, selon lui, pour qu’il y ait responsabilité conjointe, il est nécessaire que les deux opérateurs poursuivent une unité de finalité et non pas qu’ils déterminent conjointement la finalité de traitement. Or les finalités poursuivies par Fashion ID et par Facebook sont divergentes.
Il est faux d’affirmer en l’espèce que les deux parties auraient déterminé de façon commune la finalité de l’opération de traitement consistant en la collecte des données personnelles des visiteurs du site web de Fashion ID. En effet, Facebook n’est convenu de rien avec personne lorsqu’il a conçu son plugiciel lui permettant à lui – et à lui seul – de collecter les données de personnes visitant un site web tiers. Facebook n’a pas davantage discuté avec quiconque de sa stratégie « data », consistant à collecter et traiter des données à des fins de profilage et de ciblage publicitaire, y compris lorsque les personnes concernées ne se sont jamais inscrites sur Facebook. Fashion ID a simplement décidé, a posteriori, d’intégrer ce plugiciel dans sa page web afin de bénéficier de la diffusion qu’un bouton « J’aime » lui procure au sein des membres
de la communauté Facebook d’un de ses visiteurs, si ce dernier a un compte Facebook et s’il clique « J’aime ». La société Fashion ID n’a en aucun cas déterminé les moyens essentiels à la collecte par Facebook des données car elle n’a pas participé à la conception du plugiciel, de ses fonctionnalités, de ses finalités et de leur participation
à la stratégie « data » de Facebook.

Ce qu’en disent les « Cnil » européennes
Ainsi, Fashion ID et Facebook ne peuvent être qualifiés de responsables conjoints d’un tel traitement, non pas parce que ce serait une erreur d’appréciation discutable, mais parce que les régulateurs européens et le RGPD disent le contraire. Comme l’a relevé le G29 des « Cnil » européennes, « la coopération dans le traitement ne signifie pas qu’il y a forcément coresponsabilité. En effet, un échange de données entre deux parties, sans partage des finalités ou des moyens dans un ensemble d’opération, doit être considéré uniquement comme un transfert de données entre des responsables distincts » (10). Il faudra être encore un peu patient avant d’avoir la position finale de
la CJUE, en espérant, d’ici là, que celle-ci ne se trompera pas de question ni de raisonnement. @

Facebook (15 ans d’âge et moult scandales) : Mark Zuckerberg est responsable mais… pas coupable

Mark Zuckerberg, qui détient la majorité des droits de vote de Facebook alors qu’il en est actionnaire minoritaire, concentre tous les pouvoirs en tant que président du conseil d’administration. A bientôt 35 ans, le philanthrope milliardaire est intouchable malgré les scandales à répétition impactant le premier réseau social du monde.

Bernard Arnault, quatrième plus riche du monde, pourrait se voir détrôner en 2019 par Mark Zuckerberg (photo), qui le talonne
à la cinquième place des plus grandes fortunes de la planète. Comment un jeune Américain, qui va tout juste sur ses 35 ans (le 14 mai) pourrait-il faire subir un tel affront à un vénérable Français, deux fois plus âgé que lui et à l’aube de ses 70 ans
(le 5 mars) ? La richesse du geek, PDG de Facebook, a grimpée plus vite en un an que celle du patriarche, PDG de LVMH, pour atteindre au 8 février respectivement 65,5 et 76,3 milliards de dollars, selon le « Billionaires Index » de l’agence Bloomberg.
La fortune de Mark Zuckerberg a augmenté sur un an plus vite (+ 13,5 milliards
de dollars) que celle de Bernard Arnault (+ 7,7 milliards à la même date). Pour un trentenaire qui perçoit seulement un salaire annuel de… 1 dollar, depuis 2013 et conformément à sa volonté, contre 500.000 dollars auparavant, et sans recevoir non plus depuis de primes ou d’actions, c’est une performance ! Ses revenus proviennent en fait de ses actions qu’il détient en tant qu’actionnaire minoritaire de Facebook.
Mais les 17 % que le fondateur détient encore la firme de Menlo Park (Californie),
cotée en Bourse depuis mai 2012, ne reflètent pas vraiment son pouvoir de contrôle puisqu’il possède 60 % des droits de vote.

« Zuck » vend des actions Facebook jusqu’en mars 2019
Zuck – comme le surnomment ses proches collaborateurs – contrôle en effet Facebook grâce à une structure capitalistique très particulière composée de deux types d’actions : celles de « classe A » cotées en Bourse, mais surtout les « classe B » non cotées et à droits de votes préférentiels, ces dernières lui permettant de détenir plus de la majorité des droits de vote – bien que détenteur minoritaire du capital. Autant dire que le jeune multimilliardaire est, en tant qu’actionnaire de référence de Facebook, le seul maître à bord et ne peut être évincé sans son accord par le conseil d’administration qu’il préside!
« [Mark Zuckerberg] est en mesure d’exercer son droit de vote à la majorité du pouvoir de vote de notre capital et, par conséquent, a la capacité de contrôler l’issue des questions soumises à l’approbation de nos actionnaires, y compris l’élection des administrateurs et toute fusion, consolidation ou vente de la totalité ou de presque la totalité de nos actifs », souligne le groupe Facebook qui justifie cette concentration des pouvoirs sur un seul homme. A savoir : empêcher toute manœuvre capitalistique ou stratégique qui n’ait pas l’aval du PDG fondateur.

Entre potentat et philanthrope !
En septembre 2017, ce dernier avait bien tenté de créer une nouvelle catégorie d’actions – cette fois des « classe C », destinées à être cotées en Bourse – qui lui auraient permis de « prolonger » son contrôle sur son groupe par la majorité des droits de vote. Mark Zuckerberg avait défendu ce projet d’évolution de structure du capital pour pouvoir financer ses initiatives philanthropiques tout en gardant le contrôle des droits de vote et en ayant le dernier mot. Mais face à la levée de bouclier de certains actionnaires, il avait renoncé aux « classe C », tout en affirmant pourvoir quand même financer ses projets altruistes « pour encore au moins 20 ans ». Avec son épouse Priscilla Chan, le jeune PDG a alors prévu de « vendre 35 millions à 75 millions d’actions de Facebook dans les dix-huit mois [à partir de l’annonce faite en septembre 2017 et donc jusqu’à mars 2019, ndlr] dans le but de financer des initiatives philantropiques de [luimême] et de sa femme, Priscilla Chan, dans l’éducation, la science et la défense [de causes] ». Le couple a indiqué en décembre 2015 vouloir donner de leur vivant jusqu’à 99 % de leurs actions Facebook (2) à leur fondation,
la Chan Zuckerberg Initiative. « Mr. Zuckerberg nous a informé que durant cette période il avait l’intention de continuer à vendre de temps en temps des actions Facebook, principalement pour continuer à financer ses projets philantropiques », indique encore le rapport annuel 2018 publié le 31 janvier dernier.
Le philanthrope-milliardaire, hypermédiatisé, reste intouchable et concentre ainsi d’immenses pouvoirs entre ses mains. Et ce, malgré l’annus horribilis que fut pour
lui 2018 égrenée par des scandales à répétition provoqués successivement par : l’ingérence russe via le premier réseau social mondial dans l’élection présidentielle américaine de 2016 ; les fake news d’activistes ou de gouvernements propagées sur la plateforme ; l’exploitation illégale des données personnelles de 100 millions utilisateurs à des fins politiques par la société Cambridge Analytica (re-née de ses cendres en Emerdata) ; le piratage en ligne de millions de comptes permis par une faille de sécurité ; le recours de Facebook à une entreprise de relations publiques, Definers Public Affairs, pour discréditer ses adversaires, concurrents et critiques. Tout récemment encore, le 30 janvier, Facebook a été accusé d’avoir collecté les données personnelles sur smartphone auprès de « volontaires », notamment d’adolescents qui étaient rétribués 20 dollars par mois (3). L’intouchable dirigeant, accusé de légèreté face
à toutes ces affaires compromettantes (4), n’a pas jugé bon de démissionner, alors
que sa responsabilité est largement engagée et malgré les appels à son départ lancés par des investisseurs américains dès le printemps 2018. Au magazine The Atlantic,
le 9 avril (5), il déclarait ne pas avoir l’intention de démissionner. Plus récemment, sur
CNN Business le 20 novembre (6), il affirmait droit dans les yeux de son intervieweuse : « C’est pas prévu », tout en défendant au passage son bras droit et directrice des opérations du réseau social, Sheryl Sandberg, elle aussi mise en cause dans la mauvaise gestion des graves crises et controverses aux répercutions mondiales. Sous la pression, la firme de Menlo Park a dû quand même procéder en mai 2018 au plus vaste remaniement de son top-management depuis sa création (7). Même comme
« panier percé », Facebook affiche fièrement sur le seul réseau social historique ses 2,3 milliards d’utilisateurs mensuels (1,5 milliard quotidiens), dont 381 millions en Europe.
Cette audience captive lui a permis de dégager sur l’année 2018 un bénéfice net de 22,1 milliards de dollars, en hausse insolente de 39 %, pour un chiffre d’affaire de
55,8 milliards de dollars, faisant également un bond de 37 %. Quant au trésor de guerre, à savoir le cash disponible, il culmine à 41,1 milliards de dollars.
Si l’on additionne Facebook, Instagram, WhatsApp et Messenger, « il y a maintenant 2,7 milliards de personnes chaque mois, dont plus de 2 milliards chaque jour, qui utilisent au moins l’un de nos services », s’est félicité Mark Zuckerberg lors de la conference téléphonique du 30 janvier dédiée à la presentation des résultats annuels. Une vraie « success story » malgré le départ de jeunes attirés par SnapChat ou TikTok (8). Depuis l’action grimpe (de 144 à 166 dollars) et la valorisation boursière de Facebook Inc atteint près de 500 milliards de dollars.

Intégration Facebook, WhatsApp et Instagram ?
Mais Zuck n’en a pas fini avec les enquêtes. Sept Etats américains (9) soupçonnent Facebook de violation sur la protection des données. La Federal Trade Commission (FTC) aussi. Le Congrès américain, devant lequel le PDG en cause s’est excusé au printemps dernier pour l’affaire « Cambridge Analytica », pourrait légiférer. En Europe, l’Irlande – via sa « Cnil », la DPC (10) – mène l’enquête sur son respect du RGPD (lire p. 6) et s’inquiète surtout du projet d’intégration de Facebook, WhatsApp et Instagram (11). L’Allemagne, elle, a décidé le 7 février d’empêcher Facebook d’exploiter les données entre ses services. @

Charles de Laubier

L’éthique, mode alternatif de régulation de l’IA et vecteur de confiance dans l’innovation

Les intelligences artificielles (IA) fascinent et semblent faciliter nos vies. Pourtant, elles nourrissent aussi des craintes et de véritables questionnements quant à leur impact sur la société, voire l’humanité. L’éthique peut constituer l’un des piliers de la confiance nécessaire au développement de l’IA.

Par Mahasti Razavi, associé gérant, et Laura Ziegler, avocat senior, August Debouzy

Il existe une distinction entre des IA dites
« faibles » et des IA dites « fortes ». L’IA faible permet de reproduire, le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique prévu à l’avance, dans la majorité des cas de façon bien plus efficace et rapide que l’homme, mais sans aucune forme d’improvisation. Si elle peut simuler le raisonnement, inclure une dimension apprenante et résoudre des problèmes, ce type d’intelligence artificielle ne permet en aucun cas de reproduire les fonctions cognitives de l’intelligence humaine.

IA « faible » : source de préoccupations
Chatbots, outils de reconnaissance vocale (Assistant/Google, Cortana/Microsoft, Siri/Apple, Alexa/Amazon) ou de reconnaissance d’images, ou encore robotique : cette forme d’IA « faible » est celle qui nous accompagne dans notre vie de tous les jours.
A cette IA « faible » est opposée une « IA forte », qui serait non seulement capable
de reproduire des aptitudes à la réflexion et à l’interaction intelligente (analyse, raisonnement, actions rationnelles), mais pourrait en outre comprendre son propre fonctionnement et avoir ainsi une réelle « conscience » d’elle-même. A cette étape, l’intelligence de la machine dépasserait donc celle de l’homme dans tous les domaines, y compris dans la créativité et dans l’agilité sociale. Si l’IA forte fait l’objet d’une préoccupation légitime en termes d’éthique, il n’en demeure pas moins que l’IA
« faible » doit également nous interpeller à cet égard.
Dans ce cadre, l’éthique apparaît comme un enjeu majeur pour penser et développer une IA responsable. L’une des premières sources d’inquiétude et de questionnements se concentre autour de l’effet pervers des algorithmes et de l’IA pouvant répercuter
et surtout amplifier un certain nombre de discriminations. En effet, si l’IA permet un traitement plus efficace de la donnée et a priori plus objectif de la donnée, l’algorithme est toujours le reflet d’un système de valeurs et de choix de société, à travers son paramétrage, ou ses données d’apprentissage. Aussi, les critères sur lesquels reposent les systèmes prédictifs peuvent être à l’origine de la reproduction et/ou de l’accentuation d’inégalités, de phénomènes d’exclusions et de discrimination, généralement causés par des biais cognitifs (1). Ces biais peuvent affecter directement ou indirectement les algorithmes (dès leur conception ou parce qu’ils n’auront pas été assez entraînés) mais encore les données intégrées dans le système ou générées par celui-ci (manque de diversité des bases de données d’apprentissage, par exemple).
Un algorithme permettant le fonctionnement d’un outil de reconnaissance faciale, s’entraînant sur une base de données qui ne serait pas assez diverse, peut ainsi présenter des défaillances dans la reconnaissance de visages. Autre illustration : les biais de genre révélés par la plateforme publicitaire de Google, AdSense, par laquelle les femmes se voyaient proposer des offres d’emploi bien moins rémunérées que celles adressées aux hommes, à un niveau similaire de qualification et d’expérience. Les algorithmes de prédiction, qui présentent aussi des risques d’exclusions, peuvent permettre aux entreprises d’anticiper les comportements ou les tendances de comportement de leurs clients, et d’automatiser en grande partie certains processus
ou d’aider à la prise de décision (2). Cette automatisation et cette dynamique de personnalisation des offres et des services peuvent naturellement avoir pour effet d’exclure l’accès de certaines personnes à ces services. C’est d’ailleurs l’une des raisons pour laquelle ce sujet a été très strictement encadré par la législation applicable en matière de données à caractère personnel et renforcée avec l’entrée en application du RGPD (3).
L’effet algorithmique qui consiste à classer et à filtrer des données, analysées en grande masse, est également un sujet préoccupant : ces algorithmes apprenants analysant nos comportements auront tendance à nous proposer constamment des objets (en fonction des achats effectués et des prédictions de nos futurs besoins),
des personnes (nos amis visibles sur les réseaux sociaux), des cultures (profilage
« Netflix ») conformes à nos goûts.

Risque d’enfermement algorithmique
Cela n’aura-t-il pas pour effet de nuire à un certain pluralisme et plus généralement
à la diversité culturelle ? A l’échelle de la société, ce phénomène pourrait constituer
– notamment en matière politique – un danger pour la qualité du débat public, la diversité de l’information et plus généralement le fonctionnement de notre démocratie. Alors que l’IA investit même les rédactions journalistiques et permet de traiter un grand nombre d’informations, de rédiger automatiquement certains articles ou encore de faire de la veille d’actualité, la mise en place – dans ce cadre précis – d’une IA responsable et éthique permettant d’éviter cet enfermement algorithmique, de lutter contre les fakes news, de respecter les engagements de diversité, de pluralisme et de déontologie de l’information paraît là encore indispensable.

Equilibre entre traitement et accès
En outre, l’IA impliquant l’utilisation massive des données à des fins d’apprentissage, elle pose là encore de nombreuses interrogations sur l’équilibre entre le traitement et l’accès aux données par les acteurs de l’IA et la protection des données à caractère personnel et des droits des personnes concernées. Sans algorithme, les données sont muettes, et sans donnée, l’algorithme est aveugle. A ce sujet, les principes de
« minimisation des données », l’encadrement du profilage, de la prise de décision exclusivement automatisée et les obligations de transparence figurant dans le RGPD marquent déjà les premières bases d’une technologie souhaitée plus responsable et respectueuse des droits et libertés des individus, même si ce n’est pas sans générer
de nombreuses difficultés en pratique. Plus généralement, la recherche de ce point d’équilibre entre la nécessaire protection des libertés individuelles et le développement libéré d’une technologie utile pour l’homme nourrit l’ensemble des réflexions autour de l’IA. S’il n’existe pas aujourd’hui de cadre juridique global et déterminé permettant de prendre en compte toute la complexité de ces nouvelles technologies intelligentes, les principales problématiques juridiques en matière notamment de propriété intellectuelle, de responsabilité, de protection des données à caractère personnel peuvent être aujourd’hui tout à fait encadrées par les textes existants. Parce qu’il s’agit par nature d’une technologie en mouvement, il nous semble « urgent de ne rien faire ! » et souhaitable que l’IA s’appuie sur la régulation existante et évolue de manière progressive avec celle-ci. Les règles et les limites qui lui sont applicables peuvent être par ailleurs conçues, dans un premier temps, de manière non contraignante, telle une soft law de plus, afin d’atteindre une certaine maturité. C’est ici tout le sens de l’éthique pensée comme une méthode alternative aux régulations, permettant de déclencher les consciences individuelles et collectives, devenue outil d’accompagnement du droit. L’éthique est constituée par un ensemble de normes édictées par l’industrie auxquelles celle-ci choisit de donner une force contraignante. Le contenu de ces normes peut reprendre en partie le droit existant, mais également aller bien au-delà. C’est en ce sens que s’est positionnée la Cnil (4) dans son rapport, publié le 15 décembre 2017, sur les enjeux éthiques des algorithmes et de l’IA (5). Elle a décliné six recommandations opérationnelles dans ce domaine – plaçant l’éthique au cœur de celles-ci en insistant notamment sur la nécessité de : former à l’éthique tous les acteurs-maillons de la chaîne algorithmique, rendre les algorithmes compréhensibles, constituer une plateforme nationale d’audit des algorithmes, encourager la recherche sur l’IA éthique ; et renforcer la fonction éthique au sein des entreprises (6). L’éthique apparaît désormais comme un enjeu crucial et un outil indispensable pour sensibiliser les utilisateurs mais également ceux qui contribuent à la conception et la commercialisation de ces systèmes d’IA aux enjeux attachés à son usage. Cette prise de conscience est très présente notamment chez les professionnels du secteur privé qui ont intégré l’éthique au cœur de leurs transformations digitales (lire encadré ci-dessous).
A ce jour, le développement d’une IA éthique semble être à l’évidence porté par une régulation alternative, choisie et sectorielle, à la recherche d’une gouvernance adaptée. Elle nécessitera toutefois inévitablement une mobilisation internationale d’ampleur, ou à tout le moins européenne, pour permettre l’identification des grand enjeux de société et éviter l’émergence d’éventuelles dérives : un « shopping éthique » (7) ou encore un nouveau phénomène d’« Ethicwashing » (8). L’IA éthique pourrait au contraire constituer la clé de l’attractivité des entreprises, puis des Etats conscients de son importance pour leur leadership en matière d’innovation. @

ZOOM

Les initiatives pour une IA éthique se multiplient
De très nombreux acteurs provenant de l’industrie de la tech – mais pas uniquement – se sont saisis du sujet et ont mis en place un grand nombre d’outils, au sein même de leurs organisations, pour développer une IA éthique et de confiance (9). Microsoft ou IBM, ont adopté, par exemple, des chartes et des codes éthiques sur l’utilisation de l’IA. Google annonçait le 7 juin 2018 – en réaction à une mobilisation d’une partie de ses salariés (10)– le lancement d’une charte éthique, articulée autour de sept principes très concrets applicables à l’IA (11). Ces sociétés ont également très récemment uni leurs forces en créant le 28 septembre 2018 un partenariat dans ce domaine : « Partnership on Artificial Intelligence to Benefit People and Society » (12), afin de définir de bonnes pratiques dans ce domaine. Du côté de la justice cette fois, le comité éthique et scientifique de la justice prédictive a adopté le 19 novembre 2018 une charte éthique qui est à ce jour uniquement contraignante pour la « Legaltech Predictice » qui s’y est volontairement soumise, mais qui a vocation à terme à servir à l’ensemble des acteurs utilisant l’IA dans le monde du droit. Plus récemment encore, le 3 décembre 2018, le Conseil de l’Europe adoptait la première charte européenne relative à l’usage de l’IA dans le monde judiciaire (13). Enfin, le monde scientifique, de la recherche et de l’industrie a appelé à un développement responsable de l’IA (14) en créant vingt-trois principes fonda-mentaux d’orientation de la recherche et des applications de l’IA (15). @

Le chinois Bytedance, à la tête du réseau social TikTok (ex-Musical.ly), serait valorisée 75 milliards de dollars

La start-up chinoise Bytedance, créée en 2012 par Zhang Yiming, fait un carton chez les 11-14 ans avec son réseau social musical TikTok (ex-Musical.ly). Les jeunes s’y amusent ; les parents s’en émeuvent. Négociant une levée de fonds,
la société aurait une valorisation supérieure à celle d’Uber.

Si les BATX sont à la Chine ce que les GAFA sont aux Etats-Unis, c’est à se demander si le « B » des BATX – normalement Baidu, Alibaba, Tencent et Xiaomi (1) – ne va pas devenir Bytedance, tant cette start-up chinoise commence à faire de l’ombre aux autres géants du Net de l’Empire du Milieu. Les GAFA aussi en tremblent, de voir cette entreprise pékinoise fondée en 2012 par Zhang Yiming (photo) rencontrer un réel succès dans le monde avec plus 500 millions d’utilisateurs rien que pour son réseau social TikTok.

Créativité spontanée et expression libre
Bytedance s’est fait très rapidement un nom grâce à l’application Musical.ly (60 millions d’utilisateurs) que l’entreprise a rachetée il y a un an (en novembre 2017) pour la fusionner avec sa propre application TikTok en août dernier. Selon le New York Times
et le Wall Street Journal, qui ont évoqué des discussions en vue d’une levée de fonds de 3 milliards de dollars, cette « unicorn » chinoise pourrait se retrouver avec une valorisation supérieure à celle d’Uber : 75 milliards de dollars. Le nom Musical.ly
– créé par la start-up éponyme basée à Shanghai (Chine) et Santa Monica (Californie) – disparaît au profit de TikTok. Jusqu’alors concurrentes, ces deux applications pour mobile ont rencontré un franc succès auprès des préados, qui se sont donnés le mot dans leur collège. Très populaire en Chine, TikTok est ainsi parti à la conquête des jeunes – souvent des filles – aux Etats-Unis et en Europe.
Les collégiennes s’y donnent à coeur joie en faisant de la figuration musicale, de la création de mini-comédies musicales, du playback, de la danse, des sketches, des reprises de scènes cultes de films ou de séries, le tout sous forme de vidéos courtes de 15 secondes (avec filtres, synchronisations, 3D ou encore défis à relever), à partager avec leurs fans. La synchronisation de lèvre (lip sync) fait coïncider la créativité de l’enfant avec la musique grâce au machine learning et à l’intelligence artificielle. C’est bon enfant, étonnant de créativité, éloquent de spontanéité, et le résultat parfois surprenant. Bref, l’on comprend que les préados soient conquis(es). En France, TikTok (ex-Musical.ly) revendique 2,5 millions d’utilisateurs. Selon un baromètre « BornSocial » de l’agence Heaven, réalisé en partenariat avec l’association Génération Numérique, Snapchat et Instagram sont toujours en tête des réseaux sociaux utilisés par les 11-14 ans, mais TikTok s’est hissé au troisième rang, juste devant WhatsApp, reléguant Facebook en cinquième position, et encore plus loin Twitter.
Comme pour la plupart des réseaux sociaux, l’inscription y est interdite au moins de 13 ans, pourtant de plus en plus nombreux. L’usage de TikTok en France est en croissance de plus de 12 points entre 2017 et 2018 dans les classes de 5e. L’applications est
« très largement féminine » (62 % des filles en 5e déclarent être inscrites). « Malgré leur jeune âge, les pré-adolescents développent une vision et un usage mature des plateformes sociales. Les réseaux sociaux sont perçus comme une commodité de communication. L’adoption des fonctionnalités de diffusion éphémère leur permet une expression libre, sans contrainte de surveillance », relève Génération Numérique (2). Cette association, reconnue d’utilité publique, forme aux « bons usages » d’Internet à destination des enfants et des adolescents.
Pour autant, des voix parentales mettent en garde contre les risques, selon eux,
de perversion, d’exhibitionnisme, de narcissisme, ou encore de harcèlement que constituerait TikTok. « Très axé sur l’image, le réseau social pousse ses utilisateurs à l’exhibition et peut pour les plus fragiles, avoir des conséquences dramatiques. Les jeunes utilisatrices imitent leurs stars préférées (danseuse, chanteuse…) et adoptent des postures sexualisées et de fait, inadaptées à leur jeune âge », s’inquiète l’association e-Enfance (3). Et la Police nationale d’appeler à la vigilance : « Votre ado utilise #TikTok ? Attention, il est peut-être la cible de propositions sexuelles mal intentionnées. S’il en est la victime, rendezvous en commissariat pour porter plainte. L’auteur encourt deux ans de prison et 30.000 euros d’amende » (4). Mais aucun alarmiste n’oserait interdire cette application populaire.

TikTok, mais aussi Toutiao, Xigua Video, …
Bytedance n’a pas que TikTok comme plateforme. Sa première application se nomme Toutiao, que l’on pourrait traduire par « headlines », un agrégateur d’information et microblogging très prisé en Chine, avec son pendant international TopBuzz. Même principe que pour TikTok : le recours à des algorithmes de machine learning. Bytedance édite aussi Xigua Video (clips vidéo) ou encore News Republic (agrégateur de vidéos). Au total, Bytedance totalise 800 millions d’utilisateurs dans le monde. @

Charles de Laubier