Responsabilités sur le Web : ce qui change vraiment avec le règlement sur les services numériques

Même si le DSA a maintenu la « non-responsabilité » des hébergeurs et autres intermédiaires numériques, ce règlement européen sur les services numériques ouvre la voie à une auto-régulation a priori de la part des très grandes plateformes en ligne pour éviter les « risques systémiques ».

Par Anne Cousin, avocate associée, Derriennic Associés

Le règlement sur les services numériques – Digital Services Act (DSA) – du 19 octobre 2022 (1) est applicable à l’ensemble des intermédiaires du numérique depuis février 2024 : fournisseurs d’accès aux contenus, services de cache, moteurs de recherche, hébergeurs, plateformes en ligne. Que faut-il en attendre sur le terrain de la responsabilité de tous ces « fournisseurs de services intermédiaires » en cas de désinformation, cyber harcèlement, diffamation et contenus haineux ? Et ce, « quel que soit leur lieu d’établissement ou leur situation géographique, dans la mesure où ils proposent des services dans l’Union [européenne] ».

Des principes inchangés, parfois chahutés
A l’origine du Web, la question fondamentale fut de distinguer deux acteurs principaux : les éditeurs d’une part, responsables de plein droit des contenus qu’ils créent, et les hébergeurs d’autre part, qui à l’inverse ne doivent, ni même ne peuvent, en répondre. A la veille des années 2000, la bataille en France fut en effet acharnée sur le terrain judiciaire (2) et finalement remportée au Parlement en quelques années – loi « Liberté de communication » et loi « LCEN » (3) – par les tenants de la non-responsabilité des hébergeurs, considérée comme la condition sine qua non du développement des échanges sur Internet. Depuis, le principe a été repris par les lois françaises successives et – bien que la jurisprudence soit parfois hésitante dans son application pratique – la distinction de l’éditeur et de l’hébergeur, et les conséquences qui en découlent, sont fermement maintenue depuis. La régie publicitaire Google Adwords (4), le moteur de recherche Google (5), ou encore la plateforme de partage de vidéos Dailymotion (6) ont ainsi été jugés hébergeurs. Au contraire, ont été considérés comme éditeurs la plateforme Airbnb (7) ou encore le site web de billetterie de manifestations sportives Ticket Bis (8). Le DSA ne revient pas en arrière.

Ce règlement européen sur le marché des services numériques maintient aussi la règle indissociable de la précédente et qui en est le pendant : l’hébergeur à qui est notifié un contenu manifestement illicite doit le supprimer « dans les meilleurs délais ». Le DSA précise qu’un tel retrait doit intervenir « sans examen juridique détaillé » (9). L’illicéité doit donc « sauter aux yeux » de l’hébergeur, ce qui devrait conduire, comme aujourd’hui, à une quasi-absence de suppression des contenus « simplement » diffamatoires ou injurieux, tant leur analyse est complexe et suppose un examen approfondi. Il est en effet exclu que l’hébergeur se prononce sur la vérité du propos diffamatoire (qui écarte l’infraction) ou la bonne foi de son auteur, qui détient les mêmes effets, puisqu’il ne dispose ni du recul ni du dossier nécessaire. Le juge des référés du Tribunal judiciaire de Paris l’a par exemple retenu en ces termes : « Une appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique. Cela a pour conséquence que cet intermédiaire ne peut, par le seul fait de cette diffusion ou du maintien en ligne, être considéré comme ayant eu un comportement fautif, étant précisé en outre que la diffamation, à la supposer constituée, n’égale pas forcément trouble manifestement illicite » (10).
Ce n’est finalement que dans des cas exceptionnels – en raison des thèmes abordés, de la violence particulière du propos considéré – que l’hébergeur pourra trancher en faveur du caractère manifestement diffamatoire ou injurieux du contenu et le supprimer. Le maintien de ce principe par le DSA montre donc que la question de la non-responsabilité des hébergeurs et autres intermédiaires fait aujourd’hui consensus. A ce stade, il pourrait donc être justifié de soutenir que, malgré les déclarations tonitruantes de certains politiques, le DSA ne révolutionnera pas le paysage juridique. Il ne mettra donc pas fin à l’irresponsabilité des plateformes puisque la tâche a déjà été accomplie, et ce, depuis longtemps… Mais cette approche, elle aussi à tort radicale, ne tient pas compte des véritables apports du DSA.

Responsabilité et responsabilisation
En réalité, le règlement sur le marché des services numérique fait le constat que sur le terrain de la « responsabilité » des intermédiaires, c’est-à-dire « après » la diffusion du contenu illicite, tout a été fait : les droits nationaux et le droit de l’Union européenne (UE) ne peuvent aller beaucoup plus loin que la construction légale et jurisprudentielle actuelle. Une définition uniforme dans l’UE de ce qu’il faut entendre par contenu dit « illicite » était peut-être envisageable, tout comme la fixation uniforme de délais de retrait par l’hébergeur en fonction de la gravité du contenu. Mais guère plus. En revanche, sur le terrain cette fois des « obligations » et de la « responsabilisation », beaucoup restait à bâtir. Et c’est ce à quoi s’emploie le DSA. On peut ainsi se demander si la distinction fondamentale de l’éditeur et de l’hébergeur, qui a commandé toute la réflexion depuis l’origine, conserve aujourd’hui effectivement toute sa force.

Nouveaux enjeux, nouvelles obligations
L’idée s’est peu à peu faite jour que les graves dérives actuelles telles que la manipulation de l’information, le cyberharcèlement ou la haine en ligne ne pourraient recevoir une réponse adaptée si le droit persistait à s’en tenir à la seule distinction de l’éditeur qui répond de tout, et de l’hébergeur qui en principe ne répond de rien. Sur ce point, le DSA innove à plusieurs égards, faisant de la modération des contenus, l’élément central du nouveau rôle attribué aux intermédiaires techniques du Web. Il leur impose tout d’abord une obligation renforcée de transparence sur le fonctionnement de la modération a posteriori, laquelle est en effet souvent dénoncée comme opaque et peu compréhensible, conduisant à d’inévitables contentieux. Twitter – devenu X – a ainsi été contraint judiciairement (11), parce qu’il s’y refusait, de fournir des données sur sa procédure de modération (moyens mis en œuvre, nombre de signalements reçus, …). Les conditions générales des hébergeurs doivent désormais détailler les politiques, process, mesures et outils utilisés à cette fin, y compris en ce qui concerne la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Les informations devront être énoncées « dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté » et mises « à la disposition du public dans un format facilement accessible et lisible ».
Les intermédiaires devront aussi établir un rapport annuel détaillant le type de réclamations reçues des particuliers comme des administrations, et les décisions prises pour y donner suite (12). Instagram, Facebook et d’autres très grandes plateformes ont publié leur premier rapport de transparence fin 2023 (13). On y apprend que les Etats membres sont très peu interventionnistes, notamment la France, et que les injonctions de suppression émanant des autorités sont peu nombreuses. Les intermédiaires devront également être plus transparents sur leur système de recommandation, qui, très souvent, permet de favoriser les contenus les plus violents et donc les plus dangereux pour la paix civile.
Mais là où le DSA innove véritablement, c’est à l’égard des « très grandes plateformes » et des « très grands moteurs de recherche » – ceux qui comptabilisent au moins 45 millions d’utilisateurs actifs dans l’UE. Globalement, les obligations qu’il prévoit vont en effet croissant : tous les intermédiaires techniques sont soumis à une série de règles ; ensuite l’ensemble des hébergeurs sont concernés par plusieurs dispositions complémentaires ; puis parmi les hébergeurs, la catégorie particulière des plateformes devra satisfaire à des engagements encore plus contraignants ; et enfin, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne » seront tenus d’obligations plus sévères encore (14). A leur égard, compte tenu de leur rôle primordial dans la diffusion de l’information au sens large, on considère que la modération a posteriori ne suffit plus à traiter efficacement les dérives les plus graves et c’est pourquoi le DSA leur fait désormais obligation d’intervenir également a priori. Ces « VLOP » (Very Large Online Platforms) et ces VLOSE (Very Large Online Search Engines), dont la liste peut évoluer (15), doivent en effet désormais procéder une fois par an à une auto-analyse de leur fonctionnement et se soumettre à un audit indépendant afin d’en identifier les « risques systémiques » – notamment « lorsque l’accès à des contenus illicites peut se propager rapidement ». Ils doivent ensuite, lorsque ces risques systémiques sont identifiés, mettre « en place des mesures d’atténuation raisonnables, proportionnées et efficaces » (16). On peut voir dans cette évolution, une obligation de modération a priori cette fois, mais de portée générale et non dirigée vers un contenu particulier.
La distinction essentielle entre l’éditeur qui produit le contenu et le contrôle, et l’hébergeur qui reste extérieur au contenu et qui intervient seulement une fois l’illicéité portée à sa connaissance, a donc fait long feu. Mais de nouvelles questions surgissent. En effet, l’irresponsabilité des intermédiaires les plus puissants du marché est-elle toujours un principe intangible ? Peuvent-ils désormais se trouver mis en cause si, malgré les audits qui leur sont imposés, ils n’ont pas correctement identifié les risques et ne sont pas intervenus en amont comme ils l’auraient dû pour en atténuer les conséquences ? Une réponse positive à cette question est parfaitement envisageable. Il ne s’agirait plus alors de déterminer seulement s’ils devaient retirer tel ou tel contenu illicite mais, concrètement, si tel ou tel crime – par exemple un acte terroriste – aurait pu être évité s’ils avaient correctement identifié, analysé le risque et pris les mesures nécessaires pour le limiter ou même l’écarter.

Liberté d’expression : qui est l’« arbitre » ?
Au-delà, l’accroissement de la responsabilisation des très grandes plateformes et très grands moteurs de recherche pose aussi directement la question du rôle du juge dans la sanction des abus de la liberté d’expression. Le DSA ne conduit-il pas à faire de chacune des plus puissantes plateformes mondiales « l’arbitre unique » de celle-ci et de ses dérives ? L’évolution contemporaine de X (ex-Twitter) qui se prévaut d’une liberté totale (dont il y aurait beaucoup à dire au demeurant) ne sonne-t-elle pas déjà comme un sinistre avertissement ? Le débat est en tout cas lancé. @

Le marché unique du numérique et de ses données fait face à un foisonnement de textes législatifs

Les acteurs du numérique et de la data en Europe ne sont pas au bout de leur peine. Le marché est peut-être unique, mais la législation – en vigueur et à venir – est multiple. La mise en œuvre pratique des textes, souvent imbriqués, est complexe et peu intelligible. Petit aperçu de ce labyrinthe. Si l’Union européenne (UE) a déjà pris plusieurs mesures depuis 2014 afin de faciliter le développement d’une économie des données (1), elle entend, dans le cadre de sa stratégie pour les données et des objectifs fixés pour la « décennie numérique » (2), compléter les textes existants afin de créer de nouveaux droits et obligations destinés à favoriser l’accès et le partage des données, le développement des technologies et la souveraineté numérique. D’où le foisonnement de textes législatifs qui vont bouleverser considérablement l’écosystème de l’économie numérique et des données. Chantier de la « décennie numérique » Les principaux acteurs concernés (notamment les fabricants d’objets connectés, les fournisseurs de services d’intermédiation de données et les prestataires de cloud) devront tenir compte de ces nouvelles obligations et anticiper leur entrée en application dans la conception de leurs solutions et de leurs produits, ainsi qu’au sein de leur documentation contractuelle. Pas si simple. Tour d’horizon de ces nouveaux textes : • Data Governance Act (DGA). Ce règlement sur la gouvernance des données (3) a été adopté le 30 mai 2022 et entrera en application à partir du 24 septembre 2023, avec pour objectif de favoriser la disponibilité des données, de renforcer les mécanismes de partage et d’augmenter la confiance dans les intermédiaires de données. Ainsi, le DGA adresse trois grandes thématiques : conditions d’accès et de réutilisation des « données protégées » détenues par des organismes publics ; régulation des fournisseurs de services d’intermédiation de données ; régulation de l’utilisation altruiste des données. Sur le premier point, le DGA vient compléter la directive « Open Data » de 2019, mais ne crée pas d’obligation de mise à disposition pour les organismes publics (4). Il vient encadrer les réutilisations qui peuvent être faites de ces données protégées en veillant (5) à les préserver (6). Concernant les deux autres points, le DGA crée deux régimes spécifiques et dédiés pour les services d’intermédiation de données (7) et les organisations altruistes en matière de données (8). Les services d’intermédiation de données (data marketplaces ou data pool par exemple) seront soumis à une notification auprès d’une autorité compétente préalablement à tout début d’activité et auront notamment l’obligation de fournir les services selon des conditions équitables, transparentes et non-discriminatoires, de prendre des mesures pour assurer l’interopérabilité avec d’autres services d’intermédiation de données, de mettre en place des mesures de sécurité appropriées pour empêcher l’accès et le transfert illicite de données non-personnelles. Ils devront également notifier aux détenteurs de données en cas d’accès, de transfert ou d’utilisation non-autorisés aux données non-personnelles partagées. De leur côté, les organisations altruistes se verront notamment imposer la tenue d’un registre des utilisations des données, la publication d’un rapport annuel d’activité, des obligations de transparence vis-à-vis des personnes concernées ou des détenteurs de données (objectifs d’intérêt général, finalités des traitements) et de sécurisation des données non-personnelles. Le DGA crée enfin un régime restrictif de transfert des données non-personnelles hors-UE similaire au régime prévu par le RGPD. • Data Act (DA). Ce projet de règlement sur les données (9) a été soumis par la Commission européenne le 23 février 2022. Un objectif d’adoption ambitieux a été fixé à mi-2023, pour une entrée en application douze mois après son adoption. Il s’agit de faciliter l’accès aux données et leur utilisation, de favoriser leur portabilité, d’améliorer l’interopérabilité des solutions et infrastructures et enfin de favoriser la création de valeur autour de la donnée. Sont notamment impactés : les fabricants et distributeurs d’objets connectés et les fournisseurs de services connexes basés sur l’utilisation de données générées par ces objets, tout détenteur et destinataire de données, les prestataires et utilisateurs de services cloud (IaaS, PaaS, SaaS) ou encore les opérateurs de data spaces. Portabilité des données et services de cloud Le DA prévoit notamment des obligations pour les fabricants ou distributeurs d’objets connectés qui viennent compléter les obligations d’information et de portabilité prévues par le RGPD, comme l’obligation d’informer leurs utilisateurs sur les données générées par l’usage des objets et les conditions d’accès et de partage de telles données, ainsi qu’une obligation de mise à disposition gratuite et prompte (le cas échéant en temps réel et continu) des données générées par des objets connectés à leurs utilisateurs ou à un tiers à la demande de l’utilisateur, et ce dans des conditions équitables, raisonnables, transparentes, non-discriminatoires et non-exclusives. Ces obligations sont complétées par des interdictions (par exemple des clauses restreignant les droits des utilisateurs d’objets ou des clauses abusives imposées aux petites et moyennes entreprises). Objets connectés, dossiers médicaux, … Le Data Act impose par ailleurs une série d’obligations aux prestataires de services cloud en matière de migration de données et d’interopérabilité (par exemple supprimer les obstacles commerciaux, techniques et contractuels empêchant le client de porter ses données, applications ou autres actifs numériques vers d‘autres prestataires ; assurer une période transitoire de migration de 30 jours avec assistance ; ou encore assurer la compatibilité de ses services avec les normes d’interopérabilité de la Commission européenne). • European Health Data Space (EHDS). La proposition de règlement sur l’espace européen des données de santé (10) a été soumise par la Commission européenne le 3 mai 2022. L’UE entend adopter ce texte d’ici 2025, pour une entrée en application douze mois après sa publication. L’objectif est triple : établir les règles régissant l’espace européen des données de santé afin d’améliorer et garantir aux personnes physiques un accès sûr à leurs propres données de santé et un contrôle sur ces données dans le contexte des soins de santé (dite « utilisation primaire ») ; améliorer le fonctionnement du marché unique pour la mise au point et l’utilisation de produits et services de santé innovants fondés sur des données de santé, et veiller à ce que les chercheurs et les entreprises innovantes puissent tirer le meilleur parti des données de santé disponibles pour leurs travaux (dite « utilisation secondaire ») ; établir un cadre juridique uniforme pour le développement, la commercialisation et l’utilisation des systèmes de dossiers médicaux électroniques (DME). Dans le cadre de l’utilisation primaire des données, les citoyens de l’UE auront à leur disposition des droits et mécanismes supplémentaires complétant leurs droits existants au titre du RGPD sur leurs données de santé électroniques. Concernant l’utilisation secondaire, le projet de règlement EHDS vient encadrer avec précision les pratiques des chercheurs et acteurs de l’industrie de santé (par exemple : limitation des catégories de données pouvant être utilisées, encadrement des finalités autorisées) et leur imposer des obligations (sécurité des solutions utilisées, transparence sur le calcul des redevances générées par l’utilisation secondaire). • Artificial Intelligence Act (AIA). Cette proposition de règlement sur l’intelligence artificielle (11) a été soumise le 21 avril 2021 par la Commission européenne. L’adoption de ce texte est pressentie à horizon 2024, pour une entrée en application entre 18 et 24 mois après son adoption. Le texte vise à créer les conditions propices au développement et à l’utilisation d’une IA de pointe, éthique, sûre et digne de confiance dans l’UE. Pour se faire, l’approche est technologiquement neutre et le texte met en place des règles impératives, applicables de façon proportionnée en fonction des risques que présentent les systèmes d’IA concernés. Ainsi, les IA présentant un risque inacceptable pour les personnes sont interdites ; celles présentant un haut risque se voient imposer un certain nombre d’obligations; celles présentant un risque faible sont soumises à des obligations de transparence et d’information vis-à-vis des utilisateurs ; et enfin celles présentant un risque résiduel ne sont pas soumises au projet de règlement AIA, mais régulées par l’adoption volontaire de code de conduite et/ou de charte éthique (12). • Digital Services Act (DSA) et Digital Markets Act (DMA). Un accord politique a été conclu sur le DMA (13) le 24 mars 2022 et sur le DSA (14) le 23 avril 2022, suivi d’un vote final au Parlement européen le 5 juillet dernier. Une fois adoptés respectivement en juillet et en septembre 2022, le DMA entrera en application six mois après l’entrée en vigueur, et le DSA quinze mois après l’entrée en vigueur ou à partir du 1er janvier 2024, la date la plus tardive étant retenue (15). • Modifications de textes existants. Plusieurs autres textes sont également en cours de révision. La directive NIS (16) est modifiée par le projet de directive NIS2, dont le champ d’application a été considérablement élargi, puisqu’il vise désormais à réguler beaucoup plus d’organisations et entreprises et qu’il renforce les obligations à la charge des acteurs concernés en imposant notamment des obligations renforcées en termes de gestion des risques, de notification des incidents et de divulgation des vulnérabilités (17). La directive Machines (18) devient un projet de règlement Machines (19), visant principalement une numérisation de la documentation en la matière (instructions d’utilisation et déclaration) et la mise en place d’évaluations de conformité (pour certaines catégories de produits). De son côté, la directive ePrivacy (21), transformée en projet de règlement ePrivacy peine à voir le jour depuis la publication de sa première version en janvier 2017. De nombreux points restent encore et toujours en débat, notamment sur le régime applicable au dépôt de cookies et à la prospection commerciale. Imbrication des textes parfois peu intelligible Ces textes sont ambitieux et mêlent approche globale et sectorielle. Il en résulte une imbrication parfois peu intelligible des différents mécanismes et obligations pesant sur les acteurs qui multiplient souvent de nombreuses casquettes et entrent donc simultanément dans les champs d’application de plusieurs de ces textes. Bien qu’il soit louable de vouloir emboîter le pas au développement exponentiel de la valeur des données et du numérique, on peut s’interroger sur l’efficacité d’une telle multiplication de textes qui entraîne malheureusement la publication de textes peu aboutis, péniblement interopérables, voire difficilement transposables à la pratique des industries qu’ils visent. @

DSA et DMA : deux épées de Damoclès sur les Gafam

En fait. Le 5 juillet, le Parlement européen a procédé au vote final des deux textes législatifs européens sur respectivement les services numériques (DSA) adopté par 539 voix pour (54 contre/30 abstentions) et les marchés numériques (DMA) adopté par 588 voix pour (11 contre/31 abstentions). Ce que risquent les Gafam. En clair. Maintenant que le Parlement européen, réuni à Strasbourg, a adopté par deux votes finaux le 5 juillet 2022 les deux piliers de la nouvelle régulation d’Internet et de l’économie numérique, il reste encore l’approbation officielle du Conseil de l’Union européenne (UE) qui interviendra courant juillet pour le DMA (Digital Markets Act) et en septembre pour le DSA (Digital Services Act). Pour autant, ces deux textes législatifs n’entreront pleinement en application que bien plus tard : le DSA quinze mois après son entrée en vigueur ou à partir du 1er janvier 2024, la date la plus tardive étant retenue (1) ; le DMA six mois après son entrée en vigueur (2). Ce point de départ de « l’entrée en vigueur » correspond au vingtième jour suivant celui de sa publication au Journal officiel de l’UE (JOUE). « Toutefois », précisent les deux règlements, des articles sont applicables dès cette entrée en vigueur : pour le DSA les rapports de transparence incombant aux fournisseurs de plateformes en ligne, et des dispositions concernant les très grandes plateformes en ligne aux « risques systémiques » ; pour le DMA les obligations incombant aux contrôleurs d’accès (gatekeepers) et celles concernant l’interopérabilité des services de messageries sur Internet (3). Les moteurs de recherche, les réseaux sociaux, les plateformes de e-commerce et les places de marché sont les premiers concernés par ce nouvel arsenal. De par les sanctions qu’ils prévoient en cas d’infraction, ces textes européens – uniques au monde – constituent deux épées de Damoclès au-dessus des têtes des géants du numérique, américains (Gafam) ou asiatique (Alibaba, TikTok et autres Huawei). Si un gatekeeper enfreint le DMA, il encourt une amende pouvant atteindre 10 % de son chiffre d’affaires mondial annuel, voire 20 % en cas de récidive. Si un « fournisseur de services intermédiaire » se retrouve en infraction avec les obligations du DSA, il peut se voir infliger une amende représentant jusqu’à 6 % de son chiffre d’affaires mondial annuel. Et il risque une sanction pécuniaire jusqu’à 1% de ses revenus ou de son chiffre d’affaires mondial en cas de « fourniture d’informations inexactes, incomplètes ou dénaturées », d’absence de réponse ou encore de « manque-ment à l’obligation de se soumettre à une inspection ». Boîtes noires, algorithmes, intelligence artificielle et autres ciblages publicitaires sont tenus à la transparence. @

Uber : un service électronique d’intermédiation de transport, mais pas de la société de l’information

Le 20 décembre 2017, la Cour de justice de l’Union européenne (CJUE) a rendu un arrêt (1) important qui tranche une incertitude au niveau de la qualification juridique des services proposés par la nouvelle économie numérique. Uber est concerné au premier chef, mais il n’est pas le seul.

Fabrice Lorvo*, avocat associé, FTPA.

Rappelons ce truisme selon lequel la révolution numérique
a profondément modifié le monde économique. Mais aussi
le monde juridique. A quelle catégorie juridique existante rattacher ces nouveaux « services » ? On rappellera que la qualification juridique est le pain quotidien des juristes ; elle consiste à rattacher un acte ou un fait à une catégorie et lui appliquer la règle de droit afférant. Ce processus se décompose en deux phases : d’abord choisir les éléments caractéristiques du fait ou
de l’acte, puis le rattacher à une catégorie existante et lui appliquer la règle de droit.

Et si la France faisait entrer le haut débit, voire la fibre optique, dans le contenu du service universel?

Le service universel des télécoms n’a pas évolué depuis… 1999 ! Tablant sur un financement mixte public-privé du « Plan France Très haut débit », afin de tenter de connecter toute la population d’ici 2022, la France n’a même pas mis le simple haut débit dans ce dispositif social à prix réduit.

« En Europe, la France doit (…) convaincre l’Union européenne de la nécessité d’inscrire le très haut débit dans le cadre du service universel à fournir aux Européens dans les dix ans
à venir ». C’est une recommandation surprise qu’a faite l’exsecrétaire d’Etat à l’Enseignement supérieur et à la Recherche, Geneviève Fioraso (photo), dans son rapport
« Open Space » remis le 26 juillet dernier au Premier ministre (1). C’est même une proposition que l’on n’attendait pas du tout d’une mission, confiée par Manuel Valls, sur la filière spatiale (2).