La question n’est plus de savoir si la Commission européenne va enquêter sur Apple, mais quand

L’actuelle Commission européenne, dont le mandat va s’achever fin octobre, pourrait lancer une enquête antitrust dès cet été à l’encontre d’Apple. Si la plainte déposée par Spotify mi-mars en est à l’origine, c’est tout l’écosystème de la marque à la pomme qui se retrouverait dans le collimateur.

La commissaire européenne à la concurrence, la Danoise Margrethe Vestager (photo de gauche), n’a pas dit son dernier mot avant la fin de la mandature de la Commission « Juncker » (1). Son dernier fait d’armes pourrait être le lancement d’une enquête sans précédent sur l’écosystème d’Apple de plus en plus contesté. Au-delà de la plainte de Spotify, c’est l’ensemble de la position dominante de la marque à la pomme qui pourrait se retrouver sur le banc des accusés.

Risques d’abus et de conflits d’intérêts
Car il n’y a pas que la plateforme musicale suédoise qui a maille à partir avec l’environnement fermé et verrouillé de la firme du Cupertino. D’autres acteurs économiques formulent eux aussi des griefs envers la chasse gardée du fabricant d’iPhone, d’iPad et de Mac, qui, d’après son PDG Tim Cook (photo de droite), aurait franchi pour la première fois
la barre des 2 milliards d’appareils sous iOS vendus. C’est par exemple le cas de la presse, qui se plaint des royalties que s’arroge Apple News+. Ce kiosque numérique a été lancé au printemps dernier aux Etats-Unis et au Canada et arrive à l’automne en Grande-Bretagne et en Australie (sur iOS 13) – mais pas encore en France – comme cela a été annoncé début 3 juin lors de la fameuse WWDC (2).
Au lieu d’appliquer à la presse sa sacro-sainte répartition de valeur à 70/30, laquelle est déjà perçue comme trop élevée aux yeux de beaucoup d’éditeurs d’applications (3), Apple News+ impose la règle du 50/50 en se gratifiant de la moitié. Certains journaux américains comme le New York Times ou le Washington Post ont refusé d’y être référencés, tandis que ceux qui ont pris le risque d’y aller se plaignent de la rétention des données – la data, le nerf de la guerre – pratiquée par la marque à la pomme qui semble prendre les éditeurs pour des poires… Cette perte de contrôle des abonnés n’est pas du goût de ces derniers (4). A part au Royaume-Unis, Apple News+ n’est pas encore lancé en Europe. En revanche, les négociations auraient commencé dans certains pays européens, dont la France, mais elles achopperaient sur la rémunération ainsi que sur le partage de la valeur et des données. Quelle qu’en soit l’issue, gageons que les éditeurs européens se laisseront moins faire que leurs homologues américains – quitte à agiter le spectre de la plainte devant la Commission européenne… Un autre GAFA, Google en l’occurrence, est bien placé sur le Vieux Continent pour le savoir, après avoir écopé – de la part de très déterminée Margrethe Vestager – de trois sanctions pécuniaires pour abus de position dominante de Google (5) – soit un total de 8,25 milliards d’euros pour pratiques concurrentielles illégales ! Concernant le différend entre Spotify et Apple, porté devant la Commission européenne, le Financial Times croit savoir depuis le 7 mai dernier qu’une enquête pour abus de position dominante va être lancée prochainement par Margrethe Vestager. A moins que cela ne soit la prochaine présidente de la Commission européenne, l’Allemande Ursula von der Leyen,
qui s’en chargera à l’automne. Quoi qu’il en soit, la Danoise prend très au sérieux les griefs formulés par Spotify. Le numéro un mondial des plateformes de streaming musical reproche à la firme de Cupertino de prélever de façon injustifiée 30% sur la vente de ses abonnements. Spotify explique que ce surcoût – « cette taxe » – le contraint à relever son prix pour l’amortir. Ce qui met son abonnement premium au-dessus de celui d’Apple Music. D’où l’accusation de conflit d’intérêt portée à l’encontre du géant californien, lequel s’est inscrit en faux dans son courrier envoyé mi-juin à la Commission européenne et révélé le
24 juin par Music Business Worldwide.
Selon Apple, l’« app tax » de 30 % ne s’applique que sur la première année sur l’App Store pour être ramenée 15 % ensuite, et elle ne porte que sur seulement 0,5 % environ du parc total d’abonnés payants de Spotify (soit sur seulement 680.000 abonnés sur le total des 100 millions au niveau mondial). Si la firme de Cupertino devait être condamnée par la Commission européenne pour abus de position dominante, elle pourrait écoper d’une amende pouvant aller jusqu’à 10 % de son chiffre d’affaires global.

Le monopole d’App Store aussi contesté
Aux Etats-Unis, le 4 juin dernier, des développeurs d’applications mobile ont déposé plainte contre la marque à la pomme (6) pour pratique anticoncurrentielles sur sa boutique App Store. En cause : toujours ces 30 % d’« app tax » mais aussi les 99 dollars exigés par Apple aux développeurs pour être distribué. Par ailleurs, des utilisateurs d’iPhone ont obtenu l’aval de la Cour suprême américaine pour attaquer le fabricant sur la gestion monopolistique de l’App Store. @

Charles de Laubier

Consentement préalable aux cookies : la Cnilmet les éditeurs en ligne en infraction avec le RGPD

« Faire défiler une page ou naviguer sur un site Internet ne satisfait pas à l’exigence d’un acte positif clair », prévient le groupe des « Cnil » européennes (G29) dans ses lignes directrices sur le consentement préalable avant tout cookie. Pourtant, la France continue de tolérer cette pratique interdite.

« En poursuivant votre navigation sur ce site web, vous acceptez l’utilisation de cookies pour vous offrir une meilleure expérience utilisateur »… Autrement dit, en reprenant le modèle de bandeau d’information préalable recommandé par la Cnil elle-même (1) : «En poursuivant votre navigation, vous acceptez que des traceurs soient déposés dans votre terminal afin de vous proposer des publicités ciblées et adaptées à vos centres d’intérêts, et pour réaliser des statistiques de visites » (2).

Un « scroll », et c’est le « cookie » !
Quel internaute n’a pas été confronté à ce message intrusif lors de sa première visite sur un site web français ? Il suffit d’un « scroll », c’est-à-dire l’action de faire défiler le contenu à l’écran (3), pour que l’éditeur considère avoir obtenu ainsi le consentement de l’internaute – sur le smartphone, l’ordinateur ou la tablette duquel il se permettra de déposer des cookies. Ces traceurs, ou mouchards, sont de petits fichiers enregistreurs de tous les faits et gestes du visiteur lors de sa navigation sur le site web en question. Le problème est que ce type de « bandeau cookie » proposant un « soft » opt-in – situé entre l’opt-in (consentement préalable) et l’opt-out (consentement implicite) – n’est pas conforme au règlement général sur la protection des données (RGPD) entré en vigueur le 25 mai 2018. Le consentement préalable obligatoire (opt-in clair et net (4)) y est défini comme « toute manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement » (5).
Or, justement, de l’avis même des « Cnil » européennes réunies au sein du groupe dit G29 qui le précise dans ses lignes directrices révisées le 10 avril 2018 sur le consentement à la lumière du RGPD, « faire défiler une page ou naviguer sur un site Internet ne satisfait pas à l’exigence d’un acte positif clair ». Pour la simple raison, poursuit le G29, que « la notification indiquant qu’en continuant à faire défiler la page, l’utilisateur donne son consentement peut être difficile à distinguer et/ou peut être manquée lorsqu’une personne concernée fait rapidement défiler de longs textes, et qu’une telle action n’est pas suffisamment univoque » (6). Pourtant, malgré l’interdiction de cette pratique douteuse, les éditeurs de sites web et de presse en ligne continuent d’y recourir sans scrupule. Et ce, en France, avec l’aval de la Cnil qui va la considérer durant encore un an comme « acceptable » – dixit la Cnil le 28 juin (7). Sa présidente, Marie-Laure Denis (photo), a en effet profité de l’assemblée générale du Groupement des éditeurs de contenus et de services en ligne (Geste) – le 25 juin dernier – pour accorder aux éditeurs du Net un nouveau moratoire d’un an, soit jusqu’en juillet 2020. C’est donc après la publication de « nouvelles lignes directrices » – publication que la Cnil annonce pour juillet en vue de remplacer l’an prochain seulement en les abrogeant ses recommandations du 5 décembre 2013 parues au Journal Officiel (8) – que courra cette nouvelle « période transitoire » de douze mois pour laisser les médias « se mettre en conformité », a indiqué Marie-Laure Denis. La Cnil publiera « sa recommandation, pour consultation publique, fin 2019 ou, au plus tard, début 2020 », mais n’exclue pas des contrôles pour vérifier qu’aucun cookie n’est déposé sans obtention explicite du consentement. La pratique dite du « cookies wall », forçant quelque peu le consentement de l’internaute, sera alors proscrite. Ce moratoire est une aubaine pour les éditeurs en ligne, qui doivent investir dans une Consent Management Platform (CMP) et qui craignent de voir bon nombre d’internautes refuser d’être « espionnés » à des fins publicitaires. « Pendant cette période de transition, explique le Geste qui rassemble de nombreux sites de presse en ligne (TF1.fr, Leparisien.fr, Lefigaro.fr, BFMtv.com, 20minutes.fr, Latribune.fr, Mediapart.fr, etc.), la poursuite de la navigation comme expression du consentement sera ainsi considérée comme acceptable. Sur cette question, la Cnil a récemment rappelé que l’action positive, comme le scroll et/ou le clic sur un élément de la page visitée après un bandeau d’information, suffit à recueillir valablement un consentement internaute ».

Mieux que le RGPD, l’ePrivacy en 2020
Cette position de la Cnil est propre à la France en Europe, qui prend donc le risque de permettre aux éditeurs de jouer les prolongations jusqu’à mi-2020 avec leurs « bandeaux cookies » non conformes au RGPD, alors que se profile déjà pour l’an prochain un autre règlement européen encore plus redouté par les éditeurs, celui appelé « ePrivacy » (9) (*) (**) (***), sur la protection de la vie privée et des données personnelles. @

Charles de Laubier

Un « Euroflix » avec TF1, ProSiebenSat et… Canal+ ?

En fait. Le 3 juillet, le fils de Silvio Berlusconi – Pier Silvio, administrateur délégué du groupe de médias italien Mediaset – a mentionné TF1 comme partenaire potentiel de MediaForEurope (MFE), sa nouvelle holding néerlandaise, pour créer un « Netflix » européen. Vivendi étant actionnaire de Mediaset, avec Canal+ aussi ?

En clair. Lors de la présentation de la nouvelle grille des programmes 2019-2020 du groupe de télévisions Mediaset, le 3 juillet, Pier Silvio Berlusconi a fait état de sa priorité du moment : créer un groupe européen audiovisuel capable – avec une plateforme de TV et de SVOD que certains appellent « Euroflix » – de rivaliser avec Netflix et Amazon. Le fils de l’ancien président du Conseil des ministres italien Silvio Berlusconi, dont la holding familiale Fininvest contrôle Mediaset, a annoncé le 7 juin au Pays-Bas la création d’une nouvelle holding, MediaForEurope (MFE), pour y accueillir des partenaires potentiels de la télévision en Europe.
Parmi ces derniers, Pier Silvio Berlusconi a cité TF1, mais pas Canal+, dont la maison mère Vivendi est pourtant le deuxième actionnaire de Mediaset à hauteur de 28,8 % du capital (1). C’est qu’il y a de l’eau dans le gaz depuis trois ans entre les deux groupes, à cause d’un accord conclu en avril 2016 entre eux mais dénoncé ensuite par Vivendi, lequel étant monté en même temps – de manière hostile – dans le capital de Mediaset. Cet accord mort-né il y a trois ans, avec échange de participations de 3,5 % entre les deux groupes, prévoyait que Vivendi rachète le « Canal+ » italien, la filiale Mediaset Premium, et qu’une alliance soit nouée entre le groupe de Berlusconi et celui de Bolloré pour donner naissance à un « champion latin des contenus », surnommé « Netflix latin ». Fininvest avait porté l’affaire devant la justice en réclamant à Vivendi 3 milliards d’euros de dommages et intérêts (2).
Le 18 juin, Mediaset a indiqué que les droits de vote de Vivendi dans la nouvelle société MFE seront gelés jusqu’à ce que le tribunal se prononce sur le différend qui les oppose.
Ce que conteste Vivendi. Pour l’instant, MFE – dont le montage est soumis à une AG le
4 septembre prochain et la cotation en Bourse prévue à Madrid et Milan – va chapeauter Mediaset en Italie et Mediaset en Espagne.
Le 5 juin, Mediaset avait annoncé l’acquisition de 9,6 % du groupe allemand de télévisions ProSiebenSat.1 Media, lequel est aussi pressenti pour participer à la création de cet « Euroflix ». Le temps presse : BBC et ITV vont lancer d’ici à la fin de l’année leur plateforme BritBox ; France Télévisions, TF1 et M6 espèrent avoir le feu de l’Autorité de la concurrence pour lancer Salto ; Disney+ et Apple TV+ arrivent à l’automne. @

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.

Appliquer en 2020 une taxe « copie privée » sur les ordinateurs personnels est-il politiquement correct ?

La Cour des comptes a publié le 9 juin le rapport 2019 sur le contrôle des sociétés de gestion des droits d’auteur, qui suggère d’étendre la taxe « copie privée » aux disques durs internes d’ordinateurs. La commission « Musitelli » prépare le terrain avec Copie France. Mais il faudra l’aval du gouvernement.

La commission « copie privée », chargée par le code de la propriété intellectuelle (article L.311-5) de fixer les redevances perçues au titre de « la rémunération pour copie privée » lors de la vente au grand public de supports de stockage numérique, souhaite maintenant taxer les disques durs internes des ordinateurs personnels. Cette commission, présidée par Jean Musitelli (photo de gauche), vient d’engager les discussions avec ses membres – ayants droit de la culture et industriels de la high-tech.

Réunion le 25 juin et études en vue
« Afin de définir avec précision le périmètre auquel pourrait s’appliquer une décision d’assujettissement de ce type de support, il a été décidé de procéder à l’audition le 19 avril de la société GFK. Les discussions se sont poursuivies en groupe de travail les 10 et 28 mai », indique Jean Musitelli à Edition Multimédi@. Prochaine réunion : le 25 juin. GFK a présenté la segmentation des supports concernés, qu’il s’agisse des ordinateurs personnels que des disques durs vendus nus pour y être intégrés. « Les éléments apportés par GFK devront certainement être complétés par des analyses relatives à l’état du marché de ces différents produits. La commission devra alors définir sur quels segments devront porter les études d’usage afin notamment d’exclure de l’enquête les produits à usage strictement professionnel. Le souci de la commission est d’avancer rapidement avec l’objectif de lancer les études d’usage à l’horizon de la rentrée 2019. », poursuit son président.
Copie France, seul organisme en France chargé de collecter les redevances pour la rémunération de la copie privée (1), estime pour sa part qu’il est grand temps de se pencher sur les disques durs internes des ordinateurs. « Il existe aujourd’hui une urgence au regard des ordinateurs. En effet, cette famille de supports avait été laissée de côté, car la priorité était de réactualiser les autres familles de supports. La commission doit, tout d’abord, mener une réflexion sur la définition de la famille des ordinateurs (y compris les disques durs d’ordinateurs vendus nus) avant d’envisager
de lancer une étude. La meilleure façon d’amorcer le débat et d’avoir un panorama complet de ce que recouvrent les disques durs d’ordinateurs est d’inviter un institut comme GFK à venir faire une présentation sur les caractéristiques techniques », avait justifié le 22 février dernier Idzard Van der Puyl, représentant de Copie France et par ailleurs directeur général de la Société civile des producteurs de cinéma et de télévision (Procirep) et l’Agence nationale de gestion des œuvres audiovisuelles (Angoa). Maintenant que la commission « Musitelli » dispose de ce panorama complet sur les disques durs internes d’ordinateurs et les disques durs vendus nus pour être intégrés dans l’ordinateur – par opposition aux disques durs externes qui, eux, sont déjà taxés –, les discussions entre les ayants droits des industries culturelles et les représentants des fabricants et importateurs de produits high-tech peuvent commencer. Mais avant d’aller plus loin dans les négociations en vue de fixer les barèmes de rémunération, la loi exige que la commission « copie privée » fasse réaliser – auprès de TNS-Sofres ou de l’institut CSA, par exemple – une étude sur les usages que font les utilisateurs de ces ordinateurs et disques durs internes. Car il s’agit d’avoir un aperçu des impacts potentiels sur le marché, ce que la commission « copie privée » est censée prendre en compte avant de fixer ses tarifs. Quoi qu’il en soit, les échanges entre les deux mondes – culture et numérique – risquent d’être tendus comme ce fut le cas il y a une dizaine d’années pour les disques durs externes (2007), les smartphones (2008) et les tablettes (2010).
Politiquement, d’abord, la question de la taxation des ordinateurs au nom de la rémunération de la copie privée est délicate. Jusqu’à maintenant, aucun gouvernement ne s’était risqué à étendre cette redevance « copie privée » aux ordinateurs des Français. D’une part, cela n’aurait pas été populaire au regard des échéances électorales. D’autre part, cela aurait été malvenu au moment où l’on incite la population à s’équiper d’un ordinateur pour faire ses démarches administratives et pour éviter la fracture numérique.

Déjà en Allemagne, en Italie et aux Pays-Bas
De plus, un troisième risque est apparu au cours de ces dernières années : la pression fiscale sur les foyers est devenue intenable pour les Français les plus modestes, comme le rappellent les Gilets jaunes depuis trente et un samedis. Idzard Van der Puyl (Copie France) a beau affirmer que « la rémunération pour copie privée (RCP) n’est pas une taxe », en prenant appui sur la jurisprudence du Conseil d’Etat certifiant « la nature non fiscale de la RCP », le prélèvement d’un montant non négligeable sur le prix de vente lors de l’achat par les consommateurs s’apparente pour ces derniers à une taxe qui entame leur pouvoir d’achat. Et encore, contrairement à l’écotaxe par exemple, cette « copietaxe » n’apparaît pas sur les étiquettes des produits de stockage concernés par ce prélèvement. La commission « Musitelli » et Copie France font
valoir que la France ne sera pas la première à prendre en compte les disques durs d’ordinateurs, puisque, comme l’a encore affirmé Idzard Van der Puyl le 22 février,
« les ordinateurs sont assujettis à la RCP en Allemagne, en Italie et aux Pays-Bas ».

France : 4,5 milliards d’euros depuis 1986 !
Autant dire que le marché unique numérique ne brille pas par son harmonisation
dans ce domaine, alors que la Commission européenne avait promis de réformer les systèmes de redevances pour copie privée (private copy levy/levies) sur le Vieux Continent. Edition Multimédi@ a tenté de contacter Mariya Gabriel, commissaire en charge de l’Economie et de la Société numériques, sur ce point, mais n’a pas eu de réponse. La Fédération française des télécoms (FFTélécoms) reste réservée, car elle subit déjà la taxation des « box » répercutée par les FAI (2) sur leurs abonnés depuis 2012 et dont le barème est plus élevé sur l’entrée de gamme depuis le 1er juin dernier (3). Sa représentante, Alexandra Laffitte, chargée des affaires réglementaires et européennes, a demandé que GfK puisse fournir « des éléments de droit comparé
afin d’apprécier l’impact de l’assujettissement des ordinateurs à la RCP dans d’autres états », tout en soulignant que le dernier rapport de l’organisme néerlandais Stichting Thuiskopie (4) sur la redevance pour la copie privée remontre à 2014. Mais l’organisation la plus directement concernée par ces taxes est l’Alliance française des industries du numérique (Afnum), qui est issue du rapprochement en 2015 du Gitep Tics (télécoms), du Simavelec (audiovisuel) et de l’Uspii- Siped-SNSII (photographie).
Mathieu Gasquy, qui est directeur des ventes en Europe pour le numéro un mondial des fabricants de disques durs Western Digital, représente justement l’Afnum au sein de la commission « copie privée » aux côtés de la nouvelle déléguée générale de l’Afnum (depuis avril dernier), Stella Morabito que nous avons pu contacter. Ensemble, ils ne voient pas d’un très bon oeil la perspective de cette taxe sur les ventes d’ordinateurs. Avec, selon nos informations, plus de 300 millions d’euros en 2018 grâce au versement d’impayés (Canal+, Apple, …), contre 268 millions en 2017, la France
est le pays qui contribue le plus aux recettes de la copie privée en Europe et dans le monde. En dix ans (2009-2018), cette taxe lui a rapporté plus de 2 milliards d’euros et même, selon les calculs de Edition Multimédi@, plus de 4,5 milliards d’euros depuis 1986 que cette taxe « copie privée » existe ! Placée sous tutelles des ministères de la Culture, de l’Industrie et de la Consommation, la commission « copie privée » fixe les barèmes de tarifs que Copie France collectera sur le prix de vente des appareils ou supports permettant d’enregistrer des contenus numériques (DVD, clés USB, disques durs externes, smartphones, tablettes, box, magnétoscopes numériques dits nPVR, services de Cloud TV de type Molotov (5), etc.). Et cela ne va donc pas s’arrêter là, si la volonté politique décidait d’assujettir les ordinateurs à la taxe.
En publiant le 9 juin dernier le rapport 2019 de sa commission de contrôle des sociétés de gestion collective des droits d’auteur et droits voisins (6), la Cour des comptes indique que la commission de la copie privée a inscrit à son programme de travail 2019-2021 quatre création ou révision de barèmes : révision des barèmes applicables aux clés USB et cartes mémoires amovibles ; révision des barèmes applicable aux supports « historiques » (CD data, DVD data, Baladeurs MP3 et MP4 ; extension de l’assiette par l’assujettissement des disques durs internes des ordinateurs personnels (PC). Copie France, dont le gérant et secrétaire général est Charles-Henri Lonjon (photo de droite) depuis 22 ans (7) (*) (**), a estimé auprès de la commission de la Cour des comptes que cette dernière mesure « serait la seule mesure qui pourrait avoir un impact significatif sur les collectes (près de 20-25 millions d’euros si l’on applique au parc français actuel les barèmes pratiqués en Allemagne), étant entendu toutefois que les flottes de PC utilisées en entreprise ou dans un cadre professionnel feront l’objet d’une exonération de RCP assez large ». Copie France avance même un calendrier possible de mise en oeuvre : pas avant le 1er trimestre 2020, « au plus tôt », le temps que la commission « Musitelli » en débatte, fasse faire des études d’usage et d’impact, vote un barème.

La RCP dépend trop des smartphones
La commission de la Cour des comptes fait en outre état d’un problème : « La rémunération pour copie privée connaît une extrême dépendance au marché des téléphones, qui représente fin 2018 presque les deux tiers des collectes, ce mouvement ne faisant que se renforcer au fil du temps ». Les ayants droit et les magistrats de la rue Cambon s’en inquiètent d’autant plus que 25 % du produit des perceptions de la copie privée audiovisuelle et sonore vont, selon l’article L. 321-9 du CPI, subventionner les actions artistiques et culturelles du pays – dont la RCP est censée être la principale source de financement. @

Charles de Laubier