Dans l’attente de la notification du rachat de Lagardère par Vivendi, la Commission européenne enquête

Avant même d’avoir reçu de Vivendi la notification de son projet de rachat du groupe Lagardère, laquelle devrait être lui être remise en septembre, la Commission européenne questionne depuis le début de l’année des acteurs et des organisations professionnelles pour mesurer l’impact « Vivendi-Lagardère ».

« Sous réserve de l’autorisation de la Commission européenne », précisaient dans les mêmes termes les communiqués de Vivendi annonçant respectivement le 25 mai le succès de la première période de son OPA amicale sur les actions du groupe Lagardère et le 14 juin la détention de 57,35 % du capital et 47,33 % des droits de vote du même groupe Lagardère. Le sort du projet de « rapprochement » de Vivendi et de Lagardère – déjà engagé par endroits et sans attendre l’aval des autorités antitrust – est en fait depuis des mois entre les mains de la Commission européenne. Bruxelles n’a en effet pas attendu que l’opération de contrôle lui soit notifiée – ce qui devrait être fait en septembre – pour questionner les acteurs des marchés potentiellement impactés par cette méga-opération de concentration dans l’édition et les médias. Depuis fin 2021, une « case team » est en place pour, sans tarder, « recueillir des informations auprès des parties notifiantes [en l’occurrence Vivendi, mais aussi Lagardère, ndlr] et des tiers, tels que leurs clients, leurs concurrents et leurs fournisseurs ».

La DG Competition et Margrethe Vestager scrutent
Durant cette phase de pré-notification, où les envois de questionnaires aux intéressés se multiplient pour procéder à des « tests de marché », les informations peuvent prendre la forme de griefs formulés par des concurrents présents sur ces marchés. Et les reproches sont nombreux, notamment dans le secteur de l’édition, où le numéro un français Hachette (Lagardère) est appelé à fusionner avec le numéro deux Editis (Vivendi). Avec leurs multiples maisons d’édition (Calmann-Lévy, Grasset, Stock, Fayard, JC Lattès, Livre de poche, Dunod, Larousse, Hatier, … côté Hachette Livre ; La Découverte, Plon, Perrin, Robert Laffont, Presses de la Cité, Le Cherche Midi, Bordas, Le Robert, … côté Editis), la prise de contrôle du groupe d’Arnaud Lagardère (photo) – lequel conserve 11,06 % du capital – par celui de Vincent Bolloré provoque une levée de boucliers. Car ces deux géants français du livre – édition et distribution – seront en position dominante voire en quasi-situation de monopole en France si un feu vert était donné en l’état par les autorités antitrust. « Les lois (européennes) sont bien faites. Il y a des lois qui empêchent cette concentration (dans l’édition notamment) et elles seront respectées. Si l’on doit revendre des maisons d’édition, on le fera », a tenté de rassurer Arnaud Lagardère dans Continuer la lecture

Lignes directrices de l’article 17 : ménager chèvre (droit d’auteur) et chou (liberté d’expression)

La lutte contre le piratage sur Internet en Europe prend un tournant décisif avec la transposition – censée l’être depuis le 7 juin dernier par les Etats membres – de la directive « Droit d’auteur et droits voisins ». Mais les orientations de son article 17 déplaisent aux industries culturelles.

Par Véronique Dahan, avocate associée, Joffe & Associés

Le 4 juin dernier, la Commission européenne a publié des lignes directrices (1) sur l’application de l’article 17 controversé de la directive « Droit d’auteur et droits voisins dans le marché numérique » (2). Pour l’exécutif européen « l’objectif des lignes directrices [sur l’article 17 de cette directive censée avoir été transposée depuis le 7 juin 2021 au plus tard] est de parvenir à une transposition correcte et cohérente de cet article dans les Etats membres, en portant attention à la nécessité d’équilibrer les droits fondamentaux et le recours aux exceptions et limitations [au droit d’auteur] » (3).

Œuvres protégées et liberté de création
Ces « orientations » sur l’article 17 étaient très attendues, même si de nombreux Etats membres ont d’ores et déjà transposé la directive « Copyright » en question dans leur droit national, ou sont en phase finale de transposition. La rédaction de ces lignes directrices a provoqué des craintes de la part des titulaires de droits qui redoutaient que la Commission européenne recommande aux Etats membres de restreindre l’application et les effets de l’article 17. Rappelons que l’intention du législateur est d’assurer un niveau élevé de protection aux titulaires de droits d’auteur en Europe. Aussi, toute recommandation qui viserait à restreindre la portée de la directive « Droit d’auteur et droits voisins dans le marché numérique » serait contraire à l’intention du législateur. Et ce, d’autant qu’une protection élevée des droits d’auteur est essentielle non seulement pour la création mais aussi pour son financement – tout en maintenant l’équilibre entre les intérêts des auteurs (propriété intellectuelle sur leurs œuvres) et ceux des utilisateurs (liberté d’expression et de création).
Seule une transposition uniforme dans tous les pays européens permettra une application efficace de cette directive « Copyright ». Son article 17 propose un nouveau régime juridique de responsabilité pour les plateformes de partage de contenus en ligne, lesquelles mettent à disposition, à des fins lucratives, une quantité importante de contenus protégés que leurs utilisateurs ont souvent directement mis en ligne. Ce texte législatif, qui a suscité de nombreux débats, répond à l’un des objectifs que s’était fixée la Commission européenne, à savoir : améliorer le fonctionnement du marché de la diffusion en ligne des biens culturels protégés, en mettant en place un système d’autorisation et de responsabilité des plateformes de services de partage de contenus en ligne. L’article 17 de la directive, intitulé justement « Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne », pose un régime de responsabilité hybride qui conduit les plateformes à répondre à deux types d’obligations : fournir leurs meilleurs efforts pour obtenir les autorisations nécessaires auprès des titulaires de droits et assurer une rémunération appropriée au profit de ces derniers ; fournir également leurs meilleurs efforts afin de garantir l’indisponibilité des contenus non autorisés par les titulaires de droits.
Ainsi, cet article 17 est inédit en ce qu’il impose désormais aux services de partage de contenus en ligne d’obtenir les autorisations des ayants droit pour diffuser leurs œuvres, et de les rémunérer en conséquence. Sans accord préalable, ces plateformes numériques devront faire état de l’indisponibilité des œuvres non-autorisées. Les lignes directrices de la Commission européenne font suite aux dialogues mis en place entre les fournisseurs de services de partages de contenus en ligne et les titulaires de droits, afin d’examiner les meilleures pratiques pour une coopération. L’objectif principal étant d’apporter une aide aux Etats membres dans le cadre de la transposition de cette directive. Ces « orientations » – terme employé dans la traduction en français de ce guidance, plutôt que « lignes directrice » qui n’apparaît pas dans le texte – apportent, tout d’abord, des précisions quant au champ d’application de l’article 17.

Le streaming illicite dans le collimateur
Le « fournisseur de services de partage de contenus en ligne » concerné par la directive « Copyright » est défini par celle-ci (4) comme étant « le fournisseur d’un service de la société de l’information dont l’objectif principal […] est de stocker et de donner au public l’accès à une quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés qui ont été téléversés par ses utilisateurs qu’il organise et promeut à des fins lucratives ». Cette directive de 2019 vise notamment ceux qui « jouent un rôle important sur le marché des contenus en ligne en étant en concurrence pour les mêmes publics avec d’autres services de contenus en ligne, comme les services de diffusion audio et vidéo en flux continu ». Autant dire que les GAFAM et toutes plateformes de streaming vidéo, de musique en ligne ou de réseau social sont visés. La Commission européenne recommande aux Etats membres, par souci de sécurité juridique, de transposer explicitement, sans modification, cette définition dans leur législation nationale et précise, par ailleurs, que ce champ ne peut être augmenté ou réduit.

Pas de surveillance généralisée du Net
Une analyse au cas par cas devra être menée afin de déterminer si le fournisseur tombe dans le champ de l’article ou non. En outre, ces lignes directrices apportent des précisions au regard de l’« autorisation des titulaires de droits » (5). Le terme « autorisation » n’est pas défini par la directive « Copyright ». Dès lors, il est conseillé aux Etats membres de mettre en place des moyens visant à encourager le développement de licences (modèles d’autorisation, mécanisme volontaire de facilitation d’accord, licences collectives, …). Par ailleurs, il est spécifié que les autorisations octroyées aux fournisseurs couvrent également les usages non-commerciaux ou ne générant pas de revenus significatifs réalisés par les utilisateurs.
Ainsi, les plateformes numériques de partage de contenus en ligne deviennent directement responsables de la mise à disposition d’un contenu non autorisé par son auteur, sans que le régime de responsabilité limitée de l’hébergeur ne puisse s’appliquer. Toutefois, le service en ligne sera exonéré de toute responsabilité s’il démontre avoir satisfait aux trois conditions cumulatives suivantes : fournir ses meilleurs efforts pour obtenir une autorisation ; (1) fournir ses meilleurs efforts pour assurer l’indisponibilité des œuvres protégées pour lesquelles les titulaires de droit ont fourni les informations nécessaires ; (2) faire preuve de réactivité dès la réception d’une notification motivée pour bloquer l’accès aux contenus protégés (3-a) et mettre en œuvre ses meilleurs efforts pour éviter dans le futur un scénario similaire (3-b). Ces conditions sont appréciées selon un principe de proportionnalité (6), détaillé par l’article 17 justement (7), et qui est rappelé à de nombreuses reprises par Bruxelles. La première condition – meilleurs efforts d’obtention d’une autorisation – se doit d’être évaluée au cas par cas au regard des spécificités du marché. Sans définition, là aussi, de la notion de « meilleurs efforts », la Commission européenne ajoute que cela s’entend par des démarches proactives et de bonne foi de la part des plateformes numériques concernées pour engager et poursuivre les négociations avec les titulaires de droit. L’objectif de la deuxième condition – fournir ses meilleurs efforts pour assurer l’indisponibilité des œuvres protégées pour lesquelles les titulaires de droit ont fourni les informations nécessaires – n’est pas de recommander l’usage de technologies spécifiques pour parvenir à rendre indisponibles les œuvres protégées. L’idée est de favoriser la coopération entre les fournisseurs en ligne et les titulaires de droits en leur laissant une certaine flexibilité, et que les acteurs du Net en question procèdent à un examen humain rapide pour décider si le contenu doit rester en ligne ou être supprimé. La Commission européenne tient à rappeler que l’objectif de la troisième et dernière condition – faire preuve de réactivité dès la réception d’une notification motivée pour bloquer l’accès aux contenus protégés et mettre en œuvre ses meilleurs efforts pour éviter dans le futur un scénario similaire – n’est pas de créer une obligation générale de surveillance pour les plateformes numériques.
Ce régime de responsabilité se veut pragmatique et prévoit un système particulier pour les fournisseurs qui proposent du contenu en ligne depuis moins de trois ans et qui ont un chiffre d’affaires annuel de moins de 10 millions d’euros. Il s’agit de critères que les Etats membres ne peuvent pas modifier. Parmi ces fournisseurs, les conditions qu’ils doivent respecter vont dépendre de leur audience : ceux réunissant moins de 5 millions de visiteurs devront respecter les conditions (1) (2) et (3-a) susvisées, tandis que ceux qui réunissent plus de 5millions de visiteurs devront respecter les conditions (1), (2), (3-a) et (3-b).
Enfin, la Commission européenne rappelle que le régime instauré par l’article 17 se veut souple. Une souplesse marquée par l’essence même du texte qui tend à protéger les usages légitimes ne portant pas atteinte aux droits d’auteur. L’article 17 n’affecte en rien la possibilité pour les utilisateurs et les plateformes de se prévaloir des exceptions existantes relatives notamment au droit de critique et de citation, à la caricature, à la parodie et au pastiche. Des notions non-définies qui doivent, selon la Commission européenne, être analysées dans leur sens commun et au regard du contexte dans lequel elles interviennent. Ainsi, elle ajoute que les Etats membres devraient adapter ces exceptions ou limitations obligatoires de manière à ce qu’elles s’appliquent de façon cohérente avec la Charte des droits fondamentaux de l’Union européenne (8), « notamment la liberté d’expression et la liberté des arts ».

Expression des internautes et titulaires de droits
Toujours dans une logique de souplesse, ce régime de responsabilité des plateformes numériques impose la mise en place d’un mécanisme de traitement des plaintes des utilisateurs. La Commission européenne préconise un mécanisme simple et sans frais pour garantir son efficacité. En ce sens, il est proposé que les plateformes pourraient fournir des formulaires en ligne aux utilisateurs. Ce mécanisme pourrait également aller plus loin en permettant directement aux titulaires de droits et utilisateurs d’échanger. En définitive, l’article 17 et les récentes lignes directrices de la Commission européenne tentent de trouver un équilibre entre protection des titulaires de droits et la liberté d’expression. @

Sortie des films en France : la chronologie des médias actuelle vit ses dernières semaines

Le 1er juillet, les organisations du cinéma français – le Blic, le Bloc et l’ARP (BBA) – ont proposé une nouvelle évolution de la chronologie des médias (organisant la sortie des films en salles, en VOD/SVOD et à la télévision). Elle fait suite à celle soumise par le CNC le 14 juin. L’été sera chaud…

Depuis le début de l’année, ce n’est pas moins de quatre propositions d’accord sur la chronologie des médias qui se sont succédées sans encore parvenir à faire consensus entre – au-delà des salles de cinéma arc-boutées sur leur monopole des quatre premiers mois de la sortie d’un film – les chaînes de télévision payantes (Canal+, OCS, …), les télévisions gratuites (France 2, TF1, M6, …) et les plateformes de vidéo à la demande par abonnement (Netflix, Amazon Prime Video, …).

Fin de l’été : l’ultimatum du gouvernement
Le 10 juillet dernier, au Festival de Cannes, la ministre de la Culture, Roselyne Bachelot (photo), a accordé du temps supplémentaire aux professionnels de la filière du cinéma français pour qu’ils se mettent d’accord sur une nouvelle chronologie des médias. Sinon, « le gouvernement tranchera à la fin de l’été » (1).
Pour l’heure, la vidéo à demande à l’acte (Videofutur/ Viva, FilmoTV, VOD d’Orange, …) doit continuer, elle, à attendre les quatre premiers mois après la sortie d’un film pour pouvoir le proposer. C’est l’éternel statut quo sur le monopole des salles de cinéma que défend becs et ongles depuis des années l’influente Fédération nationale des cinémas français (FNCF). D’autant que le point de départ de la chronologie des médias est la date de sortie du film en salles. A noter qu’en France, si un film agréé par le CNC est mis en ligne directement sur une plateforme vidéo, il n’a plus le droit de sortir dans les salles obscures. Ces quatre mois semblent gravés pour toujours dans le marbre du code du cinéma et de l’image animée (2), alors même que les usages numériques se sont généralisés. Il y a bien une dérogation possible à trois mois, mais elle est rarement demandée car la condition fixée par décret est très restrictive : actuellement, le film doit avoir réalisé 100.000 entrées au plus – en général moins – à l’issue de sa quatrième semaine d’exploitation en « salles de spectacles cinématographiques » (3).
Au-delà de ce monopole « obscure », un bras de fer s’exerce sur la fenêtre de diffusion suivante entre « Canal+ » et « Netflix », comprenez entre les chaînes payantes, au premier rang desquelles la chaîne cryptée du groupe Vivendi (qui fut la grande pourvoyeuse de fonds du cinéma français), et les plateformes de SVOD telles que Netflix, Amazon Prime Video ou encore Disney+. Et ce, lorsqu’il y a de leur part (pré)financement du film avec minimum garanti et engagement de diffusion. Dans sa proposition datée du 14 juin, le CNC entend ménager Canal+ sur la première fenêtre de la TV payant, en lui concédant « un délai inférieur au délai de huit mois [en cas d’] accord conclu avec les organisations professionnelles du cinéma [français] » (huit mois sans accord), et en reléguant ses rivaux « Netflix » à douze mois après la sortie d’un film en salle (quatorze mois sans accord). Alors que dans leur contreproposition datée du 1er juillet, les organisations du cinéma français – que sont le Blic (Bureau de liaisons des industries du cinéma), le Bloc (Bureau de liaison des organisations du cinéma) et l’ARP (société civile des Auteurs, Réalisateurs, Producteurs), surnommées ensemble le « BBA » – veulent aligner la TV payant (Canal+) et la SVOD (Netflix et les autres plateformes par abonnement) sur la même fenêtre à six mois après la sortie du film en salle. Là où Canal+ exige que sa fenêtre d’exclusivité coure sur une durée de neuf mois avant que les plateformes de SVOD ne puissent prétendre proposer à leur tour le nouveau film, le CNC limite cette durée d’exclusivité des droits à six mois (ou un peu plus si accord). Et ce, pour en tout cas permettre aux plateformes de SVOD – celles contribuant financièrement à l’oeuvre – de démarrer à douze mois après la sortie du film en salle.

Le « BBA » veut aligner Canal+ et Netflix
Tandis que le BBA, lui, veut mettre Canal+ et les « Netflix » sur la même ligne de départ en cas d’accord de financement du film, soit à six mois après la sortie du film en salle. Cette avancée spectaculaire de la SVOD dans la chronologie des médias (actuellement à trente mois en cas d’accord, sinon à trente-six mois) n’est bien sûr pas du goût de Canal+ qui se retrouverait ainsi en concurrence frontale avec les plateformes vidéo par abonnement. Les Netflix, Amazon Prime Video et autres AppleTV+ sont légitimes à demander un meilleur traitement en France depuis qu’ils ont – après la promulgation du décret « SMAd » le 23 juin dernier (4) – l’obligation à compter du 1er juillet de participer au financement du cinéma français. Netflix, que le Festival de Cannes n’a pas voulu voir car, selon lui, non conforme à ses règles, négocie avec les professionnels du 7e Art français un accord sur un certain nombre de films qu’il financera. C’est cette bataille déjà engagée, entre l’opérateur historique du cinéma français affaibli et les nouveaux entrants dynamiques de l’audiovisuel, qui était dans toutes les conversations des professionnels lors du 74e Festival de Cannes, du 6 au 17 juillet derniers. Le gouvernement, et sa ministre de la Culture en tête, n’ont pas réussi à trouver un accord sur cette sacro-sainte chronologie des médias pour l’annoncer avec champagne aux festivaliers sur la Croisette (notamment à ceux du Marché du Film organisé en parallèle), et à l’occasion du déplacement de Roselyne Bachelot sur le tapis rouge.

Le glas de l’influence de Canal+
Ce nouvel échec à trouver un consensus sur la chronologie des médias sonne le glas de l’influence de Canal+ sur le cinéma français. Le vent a tourné et la France ne peut pas continuer à favoriser un acteur, aussi encore influent soit-il, au détriment des arrivants, au risque de se faire épingler par la Commission européenne. Et sur le monopole des salles, personne ne trouve rien à redire… @

Charles de Laubier

Vers une régulation harmonisée des systèmes d’intelligence artificielle (IA) à risque en Europe

Le projet de règlement européen « Régulation harmonisée de l’IA », qui a entamé son parcours législatif, est ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD. Très redouté par les GAFAM, ce cadre établie une échelle de risques des « systèmes d’IA ».

Par Laura Ziegler et Rémy Schlich, avocats, Algo Avocats

Faire de l’Union européenne (UE) la première région au monde pour le développement d’une intelligence artificielle de pointe, éthique et sûre, axée sur le facteur humain. Tel est l’objectif poursuivi depuis 2018 par la Commission européenne (1). Celle-ci est passée à la vitesse supérieure en proposant un règlement (2) établissant des règles harmonisées en matière d’intelligence artificielle (IA), afin d’encadrer une technologie stratégique et transversale, jusqu’alors habituée au droit souple.

Amorce d’une régulation de l’IA
En l’absence de cadre légal général spécifique, le développement de l’IA a été favorisé ces dernières années par une régulation souple, volontaire et sectorielle, par le prisme des chartes éthiques et de la soft law, visant à la fois à sensibiliser le marché aux enjeux attachés à son usage et à bâtir la confiance nécessaire à son expansion. Née d’une volonté de promouvoir l’IA en facilitant son développement au sein du marché européen par une approche harmonisée et d’encadrer les risques associés à son utilisation, la proposition présentée par la Commission européenne le 21 avril 2021 opte pour une régulation de l’lA via l’instrument juridique européen le plus contraignant – le règlement – en instaurant un cadre qu’elle veut toutefois souple. Elle tient compte des nombreux travaux conduits en ce sens à l’échelle européenne, notamment par le groupe d’experts désignés par elle (3), le Parlement européen (4) ou encore dans le cadre du Conseil de l’Europe (5). Si plusieurs approches ont été examinées par la Commission européenne (mise en place d’un schéma de labélisation volontaire, approche sectorielle, règles impératives applicables à tous les systèmes d’IA sans distinction), une approche fondée sur l’évaluation des risques emporte ainsi sa préférence. Il s’agit d’instaurer un cadre réglementaire impératif, applicable uniquement aux systèmes d’IA présentant des risques élevés, et de laisser la possibilité aux fournisseurs de systèmes d’IA ne présentant pas de tels risques de s’autoréguler par l’adoption de chartes de conduite. Le projet de règlement « Régulation harmonisée de l’IA », qui vient d’entamer son parcours législatif au sein du Conseil de l’UE et de ses instances préparatoires (6), se veut ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD, les opérateurs établis hors de l’UE à l’origine de la mise sur le marché, de la mise en service et de l’utilisation d’un système d’IA dans l’UE se trouvant également exposés à cette nouvelle réglementation. S’affranchissant de la désormais classique opposition IA forte/IA faible et rejoignant ainsi la position du Comité ad hoc sur l’intelligence artificielle (CAHAI (7)) du Conseil de l’Europe (8), la proposition adopte une approche généralisée et « neutre » technologiquement visant les systèmes intégrant des logiciels développés à l’aide d’une ou plusieurs techniques – systèmes auto-apprenants, systèmes logiques et systèmes statistiques (9) – et qui, « pour un ensemble donné d’objectifs définis par l’homme, génèrent des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels » (10). L’approche sectorielle n’est également pas retenue par la Commission européenne qui opère une classification des systèmes d’IA en fonction de leurs finalités et non de la technologie utilisée (11), excluant au passage de son champ d’application les systèmes d’IA développés pour des finalités militaires (12) ou utilisées dans le cadre d’activités non-professionnelles ou ponctuelles (13). Le régime applicable aux systèmes d’IA sera ainsi fonction des risques induits par la finalité poursuivie par ces systèmes et leurs impacts en matière de sécurité, de santé ou encore de respect des droits et libertés fondamentaux des individus. Cette approche par les risques répertorie les utilisations de l’IA selon plusieurs catégories.

De la prohibition à la libre utilisation
L’utilisation de certains systèmes d’IA est désormais prohibée, considérée comme contrevenant par nature aux valeurs de l’UE et notamment aux droits fondamentaux. Sont ainsi interdites par exemple : les pratiques – comme le nudging – présentant un risque potentiel significatif de manipulation des individus par l’usage de techniques subliminales ou exploitant les vulnérabilités de certaines catégories d’individus (enfants, etc.) ; les pratiques susceptibles de leur causer un préjudice physique ou psychologique, celles visant à évaluer, classer ou noter les personnes physiques sur la base de leur comportement social, de caractéristiques personnelles ou prédites et conduisant à un traitement préjudiciable ou défavorable ; celles encore utilisant des techniques d’identification biométrique en temps réel dans des espaces accessibles au public à des fins d’application de la loi – sous réserve de certaines exceptions strictement encadrées (14). En introduisant de telles exceptions, la Commission européenne écarte donc l’idée d’un moratoire sur l’usage de la reconnaissance faciale dans l’espace public, envisagé peu avant la publication de son livre blanc (15) et souhaité par le Contrôleur européen de la protection des données et le Comité européen de la protection des données (EDPB) dans leur récent avis conjoint (16) (*).

Les systèmes d’IA à haut risque
Véritable cœur de la proposition, les « système d’IA à haut risque », c’est-à-dire présentant un risque élevé en matière de santé, de sureté et/ou de respect des droits et libertés fondamentales, sont autorisés sur le marché européen sous réserve de respecter un certain nombre d’exigences réglementaires et de procéder à une évaluation préalable de conformité. Deux catégories principales de systèmes d’IA à haut risque sont identifiées par la Commission européenne : ceux destinés à être utilisés comme composants de sécurité de produits soumis à une évaluation de conformité préalable par un tiers (17), et ceux autonomes ayant principalement des incidences sur les droits fondamentaux (18). Les systèmes d’IA spécifiques, c’est-à-dire présentant des risques spécifiques de manipulation, sont quant à eux uniquement soumis à des obligations de transparence et d’informa-tion (19) : il s’agit de ceux utilisés pour interagir avec des individus (chatbots), détecter des émotions ou établir des catégories sur la base de données biométriques ou encore pour générer ou manipuler des images, du contenu audio ou vidéo (deepfakes). Tous les autres systèmes d’IA ne sont quant à eux soumis à aucun encadrement strict (20).
Quant aux obligations pesant sur les différents acteurs de la chaîne de valeur d’un système d’IA, elles dépendent du rôle de chacun des acteurs. Des obligations spécifiques sont ainsi imposées aux fournisseurs, importateurs, distributeurs, utilisateurs ainsi qu’aux autres tiers. En substance, plus l’acteur est éloigné de la phase de conception du système d’IA, moins ses obligations seront conséquentes. Ainsi, le fournisseur de système d’IA établi dans l’UE (21) qui le développe ou le fait développer sous son nom ou sa marque, est soumis à de plus nombreuses obligations (établir la documentation technique, conserver les logs générés, procéder à l’analyse de conformité avant sa mise sur le marché, notifier et coopérer avec les autorités compétentes). L’importateur, lui, devra s’assurer que le fournisseur a bien réalisé une analyse de conformité et établir une documentation technique, quand l’utilisateur devra, pour sa part, principalement se conformer aux instructions accompagnant le système d’IA. Le nombre de ces obligations, pesant par ailleurs principalement sur les fournisseurs de solutions d’IA (pourtant véritables moteurs de l’innovation), peut interroger, notamment sur la charge que représentera ces coûts de mise en conformité pour ces derniers et ses conséquences sur le marché. La Commission européenne affiche toutefois sa volonté de maintenir les coûts de mise en conformité à un niveau minimum applicables uniquement en fonction des risques encourus. Pour pallier d’éventuels effets négatifs, elle a mis en place des mesures dédiées pour soutenir l’innovation, notamment à l’attention des PME et des start-up. Elle encourage tout d’abord les autorités nationales compétentes à créer des «bac à sable réglementaire» (sandboxes) pour mettre en place, sous leur contrôle, un environnement permettant le développement, le test et la validation de systèmes d’IA innovants pendant une période déterminée avant leur mise sur le marché ou en service – avec l’objectif de les mettre en conformité avec ces exigences réglementaires. De la même manière, elle exige des Etats membres la mise en place d’un certain nombre de mesures visant à encourager les PME et les start-up de systèmes d’IA. Toutefois, le choix de la Commission européenne d’une approche par les risques et non par la technologie concernée implique de « qualifier » un système d’IA en fonction de la finalité de chaque projet concerné. Si dans certains cas la qualification du système d’IA sera toujours la même (d’autant plus lorsqu’il s’agit d’une offre standardisée), certains fournisseurs (22) pourraient en revanche voir leur systèmes d’IA soumis à des qualifications différentes. Un fournisseur pourrait ainsi se trouver soumis à la majorité des obligations prévues dans la proposition en raison des finalités du projet porté par son client, à moins que ce client ne circule le système d’IA sous son nom ou sa marque ou décide de modifier sa finalité ou son fonctionnement de façon substantielle pour éviter une telle qualification (23).
En cas de manquements, les lourdes sanctions encourues peuvent s’élever jusqu’à un maximum de 30 millions d’euros ou 6 % du chiffre d’affaires mondial. En parallèle, les recommandations et lignes directrices en matière d’IA sont de plus en plus nombreuses : l’Unesco examinera prochainement le projet de recomman-dation sur l’éthique de l’IA ; le Conseil de l’Europe a produit de nombreuses lignes directrices, rapports et recomman-dations ; l’EDPB et les autorités nationales ont adopté de nombreux textes venant encadrer l’utilisation de l’IA en général ou pour des technologies spécifiques telles que la reconnaissance faciale, la localisation et le traçage, les véhicules autonomes ou encore les assistants vocaux.

Entrée en vigueur en 2024 ?
Les initiatives sectorielles restent pour l’heure la norme en matière de régulation de l’IA. La phase des négociations entre le Parlement européen, le Conseil de l’UE et la Commission européenne commence à peine sur ce texte législatif qui n’entrera en vigueur que 24 mois après son adoption. Rendezvous en 2024. @

L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

FOCUS

Le droit est allergique aux surblocages
Le droit constitutionnel est peu tolérant aux « faux positifs » en matière de liberté d’expression. Les risques de surblocage ont été soulignés par la Cour suprême des Etats-Unis dans l’affaire « Reno c. ACLU » (9) dans les années 1990, et par la Cour de justice de l’Union européenne (CJUE) dans les affaires « Scarlet c. Sabam » (10) en 2011 et « Sabam c. Netlog » (11) en 2012. Ces deux dernières affaires concernaient la mise en place, à la demande d’un tribunal belge, d’un dispositif simple pour bloquer des contenus protégés par le droit d’auteur, s’appuyant sur un procédé de « hash » pour identifier les fichiers contrevenants.
La CJUE a considéré que ce procédé créait une atteinte disproportionnée à la protection des données à caractère personnel, mais également à la liberté d’expression en raison du risque de surblocage. L’outil serait incapable de détecter s’il s’agissait d’une citation, d’une parodie ou d’une autre utilisation permises par l’une des exceptions du droit d’auteur. Plus récemment, le Conseil constitutionnel a annulé deux dispositions de la loi française « Avia » (contre la cyberhaine) en raison du risque de surblocage de contenus « non manifestement illicites » (12). Pour des contenus faisant l’apologie du terrorisme, le Conseil constitutionnel a considéré que les injonctions de l’autorité administrative (13) ne constituaient pas une garantie suffisante et que les opérateurs de plateformes ne devaient pas suivre ces injonctions de manière automatique. @