Deepfake : les vidéos truquées à l’intelligence artificielle sous l’œil du Parlement européen

Le création « deepfake » – consistant à manipuler des contenus vidéo, des images et/ou de l’audio – permet d’obtenir des résultats ultra-réalistes grâce à l’intelligence artificielle. Parodies ou désinformations, ces « hypertruquages » seront encadrés par le futur règlement européen AIA.

Le futur « Artificial Intelligence Act » que le Parlement européen examine actuellement en commissions aura un droit de regard sur les vidéos truquées et les contenus manipulés relevant de la pratique très en vogue du « deepfake » (1) – nom composé à partir de deep learning et de fake news. La commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen (2), a comme rapporteur l’eurodéputé italien Brando Benifei (photo). Selon nos informations, « un échange de vues avec les représentants de la Commission européenne » a eu lieu avec lui le 27 octobre dernier.

Article 1er du Artificial Intelligence Act
Prochaines réunions de la commission Imco : les 1er et 9 décembre prochains. Le projet de règlement Artificial Intelligence Act (AIA) sera à nouveau à l’ordre du jour et vient en complément des deux autres projets législatifs du numérique, les Digital Services Act (DSA) et Digital Markets Act (DMA), eux aussi en cours d’examen (lire p. 6 et 7). Il y sera aussi question de deepfake car dès l’article 1er du projet de législation sur l’intelligence artificielle, il est fait explicitement mention des « systèmes d’IA utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo » qui devront être soumis à « des règles harmonisées en matière de transparence ».
Celles-ci sont précisées ensuite à l’article 52 du projet AIA : « Les utilisateurs d’un système d’IA – qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”) – précisent que les contenus ont été générés ou manipulés artificiellement ». Si les deepfakes ne sont pas les seuls systèmes d’IA qui seront soumis à des obligations « en raison des risques spécifiques de manipulation qu’ils présentent » – les chatbots/robots conversationnels et les détecteurs biométriques automatisés d’émotions ou de catégorie sociale sont eux aussi dans le collimateur –, les « hypertrucages » audiovisuels occupent une place importante tant leur pratique se répand comme une traînée de poudre sur Internet, réseaux sociaux en tête. « Si un système d’IA est utilisé pour générer ou manipuler des images ou des contenus audio ou vidéo afin de produire un résultat qui ressemble sensiblement à un contenu authentique, il devrait être obligatoire de déclarer que le contenu est généré par des moyens automatisés, sauf pour certaines finalités légitimes faisant l’objet d’exceptions (domaine répressif, liberté d’expression) », précise le projet de règlement AIA dans ses motifs (3). La difficulté du Parlement européen va être d’encadrer la pratique de ces trucages vidéo ultra-réalistes sans pour autant porter atteinte à la liberté d’expression et à la liberté créative. Leurs auteurs de ces « photomontages » nouvelle génération dopés à l’IA ne seront théoriquement pas soumis à la censure ni victimes de chasse aux fausses informations, même si le projet de règlement n’évoque pas le droit à la critique, à la citation, à la caricature, à la parodie et au pastiche (relevant des exceptions au droit d’auteur). Pour autant, « [si] la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques », les créateurs de deepfakes devront les déclarer. « Les deepfakes peuvent soulever des questions de droit d’auteur », indique à Edition Mulimédi@ Olivier Japiot, président du CSPLA (4).
Mais avant que le règlement AIA n’entre en vigueur en Europe, probablement en même temps les règlements DSA et DMA dont les adoptions par les eurodéputés sont attendues au printemps prochain durant la présidence française de l’Union européenne, les deepfakes n’en font qu’à leur tête. Le dernier Web Summit, grand-messe annuelle du numérique qui s’est déroulée début novembre à Lisbonne au Portugal, les a évoqués comme « un danger » mais aussi comme une révolution des médias et du divertissement. Des applications à portée de grand public (gratuites ou payantes) ont fait parler d’elles : Reface, Face Swap Live Lite, FaceApp, Mug Life ou encore Motionleap.

Deepfakes, effets spéciaux et copyright
Les truquages hyperréalistes sont aussi de mise sur TikTok ou Snapchat. Le studio hollywoodien cinquantenaire Lucasfilm, filiale de Disney, a même recruté en juillet dernier un YouTuber spécialiste du genre, un « deepfaker » déchaîné surnommé Shamook (5). Il commettra ses détournements vidéo au sein de la division Industrial Light and Magic (ILM) créée en 1975 pour les effets spéciaux par George Lucas, lequel aujourd’hui injecte dans ses films et séries de l’IA et du machine learning. La révolution « deepfake » n’a pas fini de singer l’audiovisuel et le droit d’auteur. @

Charles de Laubier

Création d’une œuvre ou d’une invention par une IA : la justice commence à faire bouger les lignes

C’est un peu le paradoxe de l’oeuf et de la poule : qui est apparu le premier ? Dans le cas d’une création ou d’une invention par une intelligence artificielle, qui est l’auteur : la personne humaine ou la technologie créatrice ? Cette question existentielle commence à trouver des réponses, en justice.

Par Boriana Guimberteau (photo), avocatE associéE, cabinet Stephenson Harwood

L’intelligence artificielle (IA) fait l’objet de développements exponentiels dans des domaines aussi variés que les voitures autonomes (et les données générées par celle-ci), la rédaction d’articles ou la création de musiques. Au-delà de la compréhension de son fonctionnement, l’intelligence artificielle soulève la question de la paternité et de la titularité des œuvres créées ou des inventions générées par elle.

Vers un « Artificial Intelligence Act »
Avant d’explorer plus en amont cette question, il convient de fournir une définition de l’intelligence artificielle. Selon l’Organisation mondiale de la propriété intellectuelle (OMPI), l’intelligence artificielle désigne une branche de l’informatique qui a pour objet de concevoir des machines et des systèmes à même d’accomplir des tâches faisant appel à l’intelligence humaine, avec un intervention humaine limitée ou nulle. Cette notion équivaut généralement à l’intelligence artificielle spécialisée, c’est-à-dire aux techniques et applications programmées pour exécuter des tâches individuelles. L’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning) font tous deux parties des applications de l’intelligence artificielle (1).
L’IA peut ainsi produire différents résultats dont certains pourraient être qualifiés de créations ou d’inventions, les premières protégeables par le droit d’auteur et les secondes par le droit des brevets d’invention. La question est alors de savoir qui sera titulaire des créations ou des inventions générées par l’IA, et si l’IA pourrait être qualifiée d’auteur ou d’inventeur par le droit positif français.
En matière de droit d’auteur tout d’abord, de nombreux auteurs se sont penchés sur la question de savoir si l’intelligence artificielle pouvait bénéficier de la qualité d’auteur. La majorité d’entre eux reconnaissent la conception personnaliste et humaniste du droit français qui considère comme auteur la personne qui crée une œuvre. Par définition, un fait créatif est un fait matériellement imputable à une personne humaine. Cette conception s’impose également par le seul critère d’admission à la protection des œuvres de l’esprit qu’est l’originalité, laquelle se caractérise par l’empreinte de la personnalité de l’auteur (2). Eu égard à la personne de l’auteur, le professeur Christophe Caron a pu affirmer que « le duo formé par la notion de création et de personne physique est indissociable » et donc que « le créateur est forcément une personne physique ». Si la définition de l’auteur est absente du code de propriété intellectuelle (CPI), on y retrouve néanmoins diverses références : « Est dite de collaboration l’œuvre à la création de laquelle ont concouru plusieurs personnes physiques » (3) ; « Ont la qualité d’auteur d’une œuvre audiovisuelle la ou les personnes physiques qui réalisent la création intellectuelle de cette œuvre » (4). Dans le cadre de l’œuvre radiophonique, « ont la qualité d’auteur d’une œuvre radiophonique la ou les personnes physiques qui assurent la création intellectuelle de cette œuvre » (5). La seule exception à la naissance ab initio du droit d’auteur sur la tête d’une personne physique : l’œuvre collective (6).
De plus, la nécessité d’une intervention consciente de l’homme implique qu’un animal ou une machine ne peuvent être considérés comme auteurs. L’intelligence artificielle ne peut alors être qu’un outil de création supplémentaire.

L’approche « création intellectuelle »
Dans le cadre du projet de réglementation européenne sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle – l’« Artificial Intelligence Act » actuellement en cours d’examen en commissions au sein du Parlement européen (7) –, une résolution du 20 octobre 2020 du Parlement européen précisait sa teneur en affirmant ceci : « Les œuvres produites de manière autonome par des agents artificiels et des robots pourraient ne pas bénéficier de la protection par le droit d’auteur, afin de respecter le principe d’originalité, qui est lié à une personne physique, et étant donné que la notion de “création intellectuelle” porte sur la personnalité de l’auteur » (8). Cette approche se retrouve également dans les pays du système juridique dit Common Law. En 2012, la cour fédérale d’Australie affirmait la nécessité d’une intervention humaine en jugeant qu’une base de données générée automatiquement par un système d’intelligence artificielle n’est pas protégeable par le copyright dans la mesure où l’effort d’extraction des données n’était pas le fait d’une personne ou d’un groupe de personnes (9). Aux Etats-Unis, une position identique ressortait de l’affaire médiatisée du macaque Naruto ayant pris un selfie. La cour américaine n’a pas manqué de rappeler qu’une photographie prise par un animal n’est pas susceptible de protection eu égard à l’absence d’intervention humaine (10).

L’IA créatrice demande protection
L’AIPPI – association Internationale pour la protection de la propriété intellectuelle (11) – s’est également penchée sur cette question et a adopté, après d’âpres discussions, une résolution (12) lors de son congrès de septembre 2019. Selon cette résolution, les œuvres générées par une IA pourraient bénéficier de la protection par le droit d’auteur à condition qu’une intervention humaine ait lieu lors de leur création. Néanmoins, pour la première fois, le tribunal de Shenzhen en Chine a jugé qu’un article financier écrit par Dreamwriter, un algorithme conçu par Tencent, avait été reproduit sans autorisation reconnaissant ainsi que la création d’une intelligence artificielle peut bénéficier de la protection du droit d’auteur (13). Si diverses réflexions sont en cours pour faire émerger de nouveaux concepts juridiques appréhendant l’IA dans le cadre de la propriété intellectuelle, nulles n’ont connu de réels aboutissements législatifs jusqu’à présent. La protection des réalisations de l’IA s’opère ainsi notamment par la voie contractuelle. A titre illustratif, l’entreprise Aiva Technologies, connue pour son IA capable de composer de la musique, offre le choix entre une utilisation gratuite pour une exploitation privée des résultats créatifs et une utilisation payante pour une exploitation commerciale de ceux-ci.
Parallèlement, la problématique de l’IA-inventeur se pose également dans le cadre du droit des brevets. En effet, en France, le CPI prévoit que le droit au titre de propriété industrielle « appartient à l’inventeur ou à son ayant cause. Si plusieurs personnes ont réalisé l’invention indépendamment l’une de l’autre, le droit au titre de propriété industrielle appartient à celle qui justifie de la date de dépôt la plus ancienne » (14).
Ainsi, l’on retrouve en matière de brevets la même dimension humaniste dont est empreint le droit d’auteur. La question a néanmoins été posée aux offices et aux juridictions de savoir si une IA pouvait être l’inventeur d’un brevet. Les demandes déposées par « Dabus » ont ainsi pu illustrer cette problématique et les solutions retenues actuellement. Dabus est un réseau de neurones artificiel développé par le chercheur américain Stephen Thaler qui (l’IA neuronale) a notamment conçu, de manière autonome, un récipient pour boissons basé sur la géométrie fractale et un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage. Depuis, l’équipe de « The Artificial Inventor Project » a amorcé une quête visant à faire reconnaître Dabus comme inventeur d’un brevet dans divers pays.
En décembre 2019, l’Office européen des brevets (EPO) a refusé deux demandes d’enregistrement de brevets européens (15) soumises au nom de Dabus dans la mesure où seule une personne physique peut être inventeur d’un brevet européen (16).
Le bureau américain des brevets et des marques de commerce (USPTO) a, lui, rejeté le 22 avril 2020 la demande de brevet indiquant Dabus comme inventeur pour les mêmes motifs (17). Le 2 septembre 2021, le tribunal du district Est de Virginie statuait lui aussi « qu’un système d’intelligence artificielle (IA) ne peut pas déposer de brevet » (18).
De l’autre côté de l’Atlantique, la cour d’appel de Londres suivit l’office des brevets britanniques (IPO) qui avait rejeté une même demande, le 21 septembre 2021. La juge Elisabeth Laing affirma ainsi que « seule une personne peut avoir des droits. Pas une machine » (19).
Néanmoins, au mois de juillet 2021, l’office des brevets sud-africain (CIPC) a reconnu Dabus comme inventeur lors d’un dépôt de brevet pour la première fois (20), suivi de près par la Cour fédérale australienne qui jugea que « Dabus pouvait être un inventeur au sens de la loi australienne » (21).

Vers des règles ad hoc ?
En conclusion, la question de l’intelligence artificielle et de la titularité des droits de propriété intellectuelle demeure globalement dominée par le principe de prééminence de l’humain, le droit français ne se démarquant pas tant de ses voisins européens et anglo-saxons. Toutefois, les développements de l’IA sont encore à un stade peu avancé et il faudrait suivre son évolution pour apprécier la nécessité d’une adaptation des règles juridiques en conséquence, notamment celles relatives à la protection des investissements ayant abouti à l’IA. @

* Boriana Guimberteau est avocate experte en
propriété intellectuelle, que cela soit dans les
domaines des marques de commerce, du droit
d’auteur, des dessins et modèles et des brevets. Elle
vient d’intégrer le cabinet Stephenson Harwood en tant
que partner, après dix ans chez FTPA Avocats.

Mis à part Google et YouTube, le groupe Alphabet va-t-il gagner de l’argent avec ses « autres paris » ?

« Other bets » : ce sont les investissements d’Alphabet dans d’autres domaines d’innovation que les services de Google (YouTube compris). Si leur revenus sont embryonnaires, ils s’acheminent petit à petit vers le milliard de dollars de chiffre d’affaires. Mais leur déficit est encore abyssal.

« Alphabet est un ensemble d’entreprises – dont la plus grande est Google – que nous déclarons sous deux segments : Google Services et Google Cloud. Nous déclarons toutes les entreprises non- Google collectivement en tant qu’”autres paris”. Ces other bets comprennent des technologies à un stade plus précoce, qui sont plus éloignées de notre cœur de métier Google. Nous adoptons une vision à long terme et gérons le portefeuille des “autres paris” avec la discipline et la rigueur nécessaires pour générer des rendements à long terme », assure la maison mère de Google, dirigée par Sundar Pichai (photo) depuis décembre 2019.

Diversification encore très déficitaire
Si 92,3 % du chiffre d’affaires 2020 du groupe Alphabet dépend des revenus de la galaxie « Google » (Google Search, YouTube, Android, Chrome, Google Maps, Google Play ou encore Google Network), et même 99,5 % si l’on inclut Google Cloud, le reliquat est généré par les « autres paris » d’Alphabet à hauteur de 657 millions de dollars. C’est une goutte d’eau pour la firme de Mountain View (Californie), mais elle espère en tirer des bénéfices au cours des prochaines années. Bien que la croissance des recettes générées par ces other bets n’ait pas été au rendez-vous entre 2019 et 2020 (- 0,3 %), le premier semestre de l’année 2021 (au 30 juin) fait meilleure figure avec un bond de 37,8 % du chiffres d’affaires des « autres paris », à 390 millions de dollars sur six mois, par rapport à la même période un an auparavant.
Selon les prévisions de la banque américaine Goldman Sachs, qui a annoncé mi-septembre la couverture du titre Alphabet (1), les « autres paris » pourraient frôler à fin 2022 la barre du milliard de dollars de chiffre d’affaires (à savoir 910 millions de dollars l’an prochain, contre une estimation supérieure à 800 millions cette année). Pour autant, Alphabet doit en contrepartie consentir à d’importantes pertes opérationnelles sur ses « autres paris » : plus de 2,5 milliards de pertes sur les six premiers mois de cette année (aggravé de 13,6 % sur un an), alors que l’année 2020 dans son ensemble accusait déjà plus de 4,4 milliards de dollars de déficit opérationnel dans ces other bets (mais cette fois en amélioration de 7,2 % par rapport à 2019). Cela dit, Alphabet consacre beaucoup d’argent annuellement à sa R&D : plus de 15 % de chiffre d’affaires global, soit 27,5 milliards de dollars en 2020 (et rien que sur le premier semestre 2021 une enveloppe de 15,1 milliards de dollars). Et au cas où cela ne suffirait pas, notamment pour faire de nouvelles acquisitions stratégiques et de start-up, Alphabet dispose en plus (au 30 juin 2021) de 135,9 milliards de cash disponible (2). Pour l’heure, le « G » de GAFA fondé par Larry Page et Sergey Brin – restructuré en octobre 2015 sous la holding Alphabet (3) – tient à rassurer sur ses coûteux et risqués investissements diversifiés – dont certains ont été abandonnés, nous le verrons, faute de viabilité. « L’investissement d’Alphabet dans notre portefeuille “autres paris” comprend des entreprises émergentes à divers stades de développement, allant de celles en phase de recherche et développement à celles qui en sont aux premiers stades de commercialisation, et notre objectif est qu’elles deviennent prospères, à moyen et à long terme. Bien que ces entreprises en démarrage connaissent naturellement une grande incertitude, certaines d’entre elles génèrent déjà des revenus et font d’importants progrès dans leurs industries », tente de rassurer Alphabet dans son rapport annuel 2020.
Quatre filiales sont le plus avancées dans leur développement et réalisation ; elles sont aussi les seules filiales de la nébuleuse « autres paris » à être mentionnées dans ses tout derniers rapport financiers (annuel 2020 et semestriel 2021), sans pour autant mentionner de résultats pour chacune d’elle.

Des acquisitions et des levées de fonds
Waymo travaille à rendre les transports plus sécurisés et plus faciles pour tous, en particulier avec la voiture autonome ; Verily élabore des outils et des plateformes pour améliorer les résultats en matière de santé ; Fitbit, dont l’acquisition annoncée il y a près deux ans pour 2,1 milliards de dollars a été finalisée en janvier dernier, est présent sur le marché des objets connectés d’activités physiques ou wearables ; DeepMind Technologies, société britannique et consacrée à la recherche en intelligence artificielle et en réseaux neuronaux pour imiter la mémoire du cerveau humain, a été créée en 2010 et est devenue quatre ans après une filiale d’Alphabet. Parmi elles, la filiale de véhicules autonomes Waymo, qui fait circuler depuis 2017 des robotaxis sans chauffeur à Phoenix (Arizona) et depuis février dernier à San Francisco (Californie), appuie sur l’accélérateur après avoir levé en juin 2,5 milliards de dollars – après les 3 milliards obtenus l’an dernier. D’autres actifs moins connus sont dans le portefeuille d’investissement d’Alphabet tels que la filiale Calico (Calico Life Sciences) spécialisée dans le contrôle biologique du vieillissement humain pour permettre aux gens de mener une vie plus longue et en bonne santé (4).

Des échecs aussi : Loon, Makani, Quayside…
La start-up Wing, elle, est spécialisée dans les drones de livraison et existe en tant que société depuis 2018 après avoir été incubée en tant qu’un des projets « X » – de l’ex-Google X – il y a près de dix ans. Autre filiale d’Alphabet : Intrinsic, issue elle aussi des projets X, est devenue une société en juillet dernier pour poursuivre le développement et la commercialisation de solutions de robotique industrielle boostées au machine learning et à l’IA, flexibles et à prix abordables. Dans l’urbanisme et les smart cities, la filiale newyorkaise Sidewalk Labs créée en 2010 œuvre, elle, à l’amélioration de l’infrastructure urbaine pour réduire le coût de la vie dans le transport, le parking et la consommation d’énergie.
Mais les paris peuvent se traduire par des échecs, c’est le jeu : en janvier dernier, Alphabet a annoncé la fermeture sa filiale Loon – créé en 2018 après être sortie du laboratoire Google X, et l’abandon de son projet d’apporter l’accès Internet à haut débit dans les zones les plus reculées du globe à l’aide de ballons stratosphériques. L’opérateurs télécoms du Kenya en avait été le premier et seul client. Alphabet a aussi jeté l’éponge en fermant en février 2020 sa filiale Makani Technologies, société californienne créée en 2006, acquise en 2013, et spécialisée dans la fabrication d’éoliennes aéroportées – des « cerfs-volants énergétiques » qui devaient être destinés au plus grand nombre (les codes et les brevets ayant néanmoins été mis dans le domaine public).
Du côté de la filiale newyorkaise Sidewalk Labs, le projet « Quayside » de futur quartier intelligent et durable créé ex-nihilo dans la ville canadienne de Toronto, a dû être abandonné en mai 2020 – soit au bout de trois ans de gestation – car jugé trop technologique et peu viable économiquement. Plus récemment, Google a confirmé fin septembre avoir renoncé à lancer Plex, un projet de banque en ligne avec Citigroup (Citi) ou la Banque de Montréal (BMO) comme partenaires.
D’autres projets sont encore en gestion dans l’incubateur X Development (ex-Google X) qui encourage les moonshots, comprenez les rêves impossibles, les grandes ambitions :
• Mineral met au point de nouvelles technologies pour aider à bâtir un système alimentaire plus durable, plus résilient et plus productif (foodtech) ;
• Tidal développe un système de caméras sous-marines doté d’outils de perception et de visibilité des écosystèmes océaniques pour mieux les comprendre et les protéger ;
• le Everyday Robot Project fabrique des robots qui peuvent fonctionner en toute sécurité dans le quotidien des humains grâce au machine learning ;
• Taara teste dans des zones rurales d’Inde et d’Afrique une technologie d’accès haut débit à Internet qui utilise des faisceaux lumineux ;
• Glass Enterprise Edition est le développement (par l’ex-Google X) et la fabrication (par Foxconn) de lunettes de réalité augmenté pour le monde professionnel (au-delà donc des Google Glass grand public lancées en 2013 puis arrêtées en 2015) ;
• Malte construit une technologie de stockage d’énergie (gridscale) qui stocke l’électricité à partir de sources d’énergie renouvelables sous forme de chaleur à l’intérieur de grands réservoirs de sel fondu ;
• Project Foghorn cherche à créer du carburant propre à partir de l’eau de mer ;
• Dandelion (qui veut dire pissenlit) veut réduire les coûts de chauffage et les émissions de carbone grâce à l’énergie géothermique ;
• BrainBrain vise à apporter les avantages de l’IA et de l’apprentissage automatique à tous ;
• Chronique consiste à aider les entreprises à trouver et à arrêter les cyberattaques.
Cet inventaire à la Prévert de la diversification d’Alphabet est, depuis septembre dernier, présenté et censé être actualisé sur le nouveau site web de la société X Development (5) et non plus sur le blog de la « Team X » (6). La filiale « X » d’Alphabet recrute à tour de bras, surtout des ingénieurs, des scientifiques et des inventeurs pour ses différents actifs incubés (7). A condition que les candidats aient la culture « moonshot », afin de repousser les limites de l’impossible.

Google reste la vache-à-lait d’Alphabet
Pendant ce temps-là, la galaxie « Google » a profité de la crise sanitaire pour être plus que jamais la vache à lait d’Alphabet : Goldman Sachs table sur un chiffre d’affaires mondial du géant du Net dans son ensemble (« autres paris » compris) pour cette année 2021 dépassant la barre des 200 milliards de dollars, à plus de 206,3 milliards, contre 182,5 milliards l’an dernier (8) où le bénéfice net était de 40,2 milliards de dollars. Ce qui permet donc à Sundar Pichai de faire par ailleurs des paris risqués et onéreux. @

Charles de Laubier

Vers une régulation harmonisée des systèmes d’intelligence artificielle (IA) à risque en Europe

Le projet de règlement européen « Régulation harmonisée de l’IA », qui a entamé son parcours législatif, est ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD. Très redouté par les GAFAM, ce cadre établie une échelle de risques des « systèmes d’IA ».

Par Laura Ziegler et Rémy Schlich, avocats, Algo Avocats

Faire de l’Union européenne (UE) la première région au monde pour le développement d’une intelligence artificielle de pointe, éthique et sûre, axée sur le facteur humain. Tel est l’objectif poursuivi depuis 2018 par la Commission européenne (1). Celle-ci est passée à la vitesse supérieure en proposant un règlement (2) établissant des règles harmonisées en matière d’intelligence artificielle (IA), afin d’encadrer une technologie stratégique et transversale, jusqu’alors habituée au droit souple.

Amorce d’une régulation de l’IA
En l’absence de cadre légal général spécifique, le développement de l’IA a été favorisé ces dernières années par une régulation souple, volontaire et sectorielle, par le prisme des chartes éthiques et de la soft law, visant à la fois à sensibiliser le marché aux enjeux attachés à son usage et à bâtir la confiance nécessaire à son expansion. Née d’une volonté de promouvoir l’IA en facilitant son développement au sein du marché européen par une approche harmonisée et d’encadrer les risques associés à son utilisation, la proposition présentée par la Commission européenne le 21 avril 2021 opte pour une régulation de l’lA via l’instrument juridique européen le plus contraignant – le règlement – en instaurant un cadre qu’elle veut toutefois souple. Elle tient compte des nombreux travaux conduits en ce sens à l’échelle européenne, notamment par le groupe d’experts désignés par elle (3), le Parlement européen (4) ou encore dans le cadre du Conseil de l’Europe (5). Si plusieurs approches ont été examinées par la Commission européenne (mise en place d’un schéma de labélisation volontaire, approche sectorielle, règles impératives applicables à tous les systèmes d’IA sans distinction), une approche fondée sur l’évaluation des risques emporte ainsi sa préférence. Il s’agit d’instaurer un cadre réglementaire impératif, applicable uniquement aux systèmes d’IA présentant des risques élevés, et de laisser la possibilité aux fournisseurs de systèmes d’IA ne présentant pas de tels risques de s’autoréguler par l’adoption de chartes de conduite. Le projet de règlement « Régulation harmonisée de l’IA », qui vient d’entamer son parcours législatif au sein du Conseil de l’UE et de ses instances préparatoires (6), se veut ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD, les opérateurs établis hors de l’UE à l’origine de la mise sur le marché, de la mise en service et de l’utilisation d’un système d’IA dans l’UE se trouvant également exposés à cette nouvelle réglementation. S’affranchissant de la désormais classique opposition IA forte/IA faible et rejoignant ainsi la position du Comité ad hoc sur l’intelligence artificielle (CAHAI (7)) du Conseil de l’Europe (8), la proposition adopte une approche généralisée et « neutre » technologiquement visant les systèmes intégrant des logiciels développés à l’aide d’une ou plusieurs techniques – systèmes auto-apprenants, systèmes logiques et systèmes statistiques (9) – et qui, « pour un ensemble donné d’objectifs définis par l’homme, génèrent des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels » (10). L’approche sectorielle n’est également pas retenue par la Commission européenne qui opère une classification des systèmes d’IA en fonction de leurs finalités et non de la technologie utilisée (11), excluant au passage de son champ d’application les systèmes d’IA développés pour des finalités militaires (12) ou utilisées dans le cadre d’activités non-professionnelles ou ponctuelles (13). Le régime applicable aux systèmes d’IA sera ainsi fonction des risques induits par la finalité poursuivie par ces systèmes et leurs impacts en matière de sécurité, de santé ou encore de respect des droits et libertés fondamentaux des individus. Cette approche par les risques répertorie les utilisations de l’IA selon plusieurs catégories.

De la prohibition à la libre utilisation
L’utilisation de certains systèmes d’IA est désormais prohibée, considérée comme contrevenant par nature aux valeurs de l’UE et notamment aux droits fondamentaux. Sont ainsi interdites par exemple : les pratiques – comme le nudging – présentant un risque potentiel significatif de manipulation des individus par l’usage de techniques subliminales ou exploitant les vulnérabilités de certaines catégories d’individus (enfants, etc.) ; les pratiques susceptibles de leur causer un préjudice physique ou psychologique, celles visant à évaluer, classer ou noter les personnes physiques sur la base de leur comportement social, de caractéristiques personnelles ou prédites et conduisant à un traitement préjudiciable ou défavorable ; celles encore utilisant des techniques d’identification biométrique en temps réel dans des espaces accessibles au public à des fins d’application de la loi – sous réserve de certaines exceptions strictement encadrées (14). En introduisant de telles exceptions, la Commission européenne écarte donc l’idée d’un moratoire sur l’usage de la reconnaissance faciale dans l’espace public, envisagé peu avant la publication de son livre blanc (15) et souhaité par le Contrôleur européen de la protection des données et le Comité européen de la protection des données (EDPB) dans leur récent avis conjoint (16) (*).

Les systèmes d’IA à haut risque
Véritable cœur de la proposition, les « système d’IA à haut risque », c’est-à-dire présentant un risque élevé en matière de santé, de sureté et/ou de respect des droits et libertés fondamentales, sont autorisés sur le marché européen sous réserve de respecter un certain nombre d’exigences réglementaires et de procéder à une évaluation préalable de conformité. Deux catégories principales de systèmes d’IA à haut risque sont identifiées par la Commission européenne : ceux destinés à être utilisés comme composants de sécurité de produits soumis à une évaluation de conformité préalable par un tiers (17), et ceux autonomes ayant principalement des incidences sur les droits fondamentaux (18). Les systèmes d’IA spécifiques, c’est-à-dire présentant des risques spécifiques de manipulation, sont quant à eux uniquement soumis à des obligations de transparence et d’informa-tion (19) : il s’agit de ceux utilisés pour interagir avec des individus (chatbots), détecter des émotions ou établir des catégories sur la base de données biométriques ou encore pour générer ou manipuler des images, du contenu audio ou vidéo (deepfakes). Tous les autres systèmes d’IA ne sont quant à eux soumis à aucun encadrement strict (20).
Quant aux obligations pesant sur les différents acteurs de la chaîne de valeur d’un système d’IA, elles dépendent du rôle de chacun des acteurs. Des obligations spécifiques sont ainsi imposées aux fournisseurs, importateurs, distributeurs, utilisateurs ainsi qu’aux autres tiers. En substance, plus l’acteur est éloigné de la phase de conception du système d’IA, moins ses obligations seront conséquentes. Ainsi, le fournisseur de système d’IA établi dans l’UE (21) qui le développe ou le fait développer sous son nom ou sa marque, est soumis à de plus nombreuses obligations (établir la documentation technique, conserver les logs générés, procéder à l’analyse de conformité avant sa mise sur le marché, notifier et coopérer avec les autorités compétentes). L’importateur, lui, devra s’assurer que le fournisseur a bien réalisé une analyse de conformité et établir une documentation technique, quand l’utilisateur devra, pour sa part, principalement se conformer aux instructions accompagnant le système d’IA. Le nombre de ces obligations, pesant par ailleurs principalement sur les fournisseurs de solutions d’IA (pourtant véritables moteurs de l’innovation), peut interroger, notamment sur la charge que représentera ces coûts de mise en conformité pour ces derniers et ses conséquences sur le marché. La Commission européenne affiche toutefois sa volonté de maintenir les coûts de mise en conformité à un niveau minimum applicables uniquement en fonction des risques encourus. Pour pallier d’éventuels effets négatifs, elle a mis en place des mesures dédiées pour soutenir l’innovation, notamment à l’attention des PME et des start-up. Elle encourage tout d’abord les autorités nationales compétentes à créer des «bac à sable réglementaire» (sandboxes) pour mettre en place, sous leur contrôle, un environnement permettant le développement, le test et la validation de systèmes d’IA innovants pendant une période déterminée avant leur mise sur le marché ou en service – avec l’objectif de les mettre en conformité avec ces exigences réglementaires. De la même manière, elle exige des Etats membres la mise en place d’un certain nombre de mesures visant à encourager les PME et les start-up de systèmes d’IA. Toutefois, le choix de la Commission européenne d’une approche par les risques et non par la technologie concernée implique de « qualifier » un système d’IA en fonction de la finalité de chaque projet concerné. Si dans certains cas la qualification du système d’IA sera toujours la même (d’autant plus lorsqu’il s’agit d’une offre standardisée), certains fournisseurs (22) pourraient en revanche voir leur systèmes d’IA soumis à des qualifications différentes. Un fournisseur pourrait ainsi se trouver soumis à la majorité des obligations prévues dans la proposition en raison des finalités du projet porté par son client, à moins que ce client ne circule le système d’IA sous son nom ou sa marque ou décide de modifier sa finalité ou son fonctionnement de façon substantielle pour éviter une telle qualification (23).
En cas de manquements, les lourdes sanctions encourues peuvent s’élever jusqu’à un maximum de 30 millions d’euros ou 6 % du chiffre d’affaires mondial. En parallèle, les recommandations et lignes directrices en matière d’IA sont de plus en plus nombreuses : l’Unesco examinera prochainement le projet de recomman-dation sur l’éthique de l’IA ; le Conseil de l’Europe a produit de nombreuses lignes directrices, rapports et recomman-dations ; l’EDPB et les autorités nationales ont adopté de nombreux textes venant encadrer l’utilisation de l’IA en général ou pour des technologies spécifiques telles que la reconnaissance faciale, la localisation et le traçage, les véhicules autonomes ou encore les assistants vocaux.

Entrée en vigueur en 2024 ?
Les initiatives sectorielles restent pour l’heure la norme en matière de régulation de l’IA. La phase des négociations entre le Parlement européen, le Conseil de l’UE et la Commission européenne commence à peine sur ce texte législatif qui n’entrera en vigueur que 24 mois après son adoption. Rendezvous en 2024. @

Suppression de 1.700 postes : les syndicats de SFR dénoncent « un scandale social, économique et financier »

Sur les 9.500 emplois que compte encore le 2e opérateur télécoms français SFR, 1.700 postes vont être supprimés en 2021 sur la base du volontariat. C’est près de 18 % des effectifs « télécoms » de la filiale française d’Altice. Les syndicats, eux, sont vent debout contre ce projet « Transformation et ambitions 2025 ». Blocage.

Depuis la première réunion de négociation du 10 mars dernier entre les syndicats de SFR et la direction générale du 2e opérateur télécoms français, c’est le black-out total. Aucune date de nouvelle rencontre n’est prévue. « La direction a fermé la porte des négociations ; elle boude, c’est le blocage », regrettent le 18 mars les représentants syndicaux, contactés par Edition Multimédi@. La CFDT, la CFTC et l’Unsa Com ont dénoncé ce 10 mars « un scandale social, économique et financier ». Ils l’ont fait savoir dans un « manifeste pour la vérité« , dans lequel ils ont fait connaître « leur opposition à une négociation ouverte sur la base d’un tissu de mensonges travestissant la réalité économique de SFR » et « sur la base d’une construction artificielle et inacceptable de “nouvelles” orientations stratégiques ». Alors que SFR en est à son troisième plan social en moins de dix ans (2), dont 5.000 emplois supprimés en 2017, celui-ci – avec sa destruction de 1.700 emplois – ne passe pas. « Cette invitation à la négociation d’une réduction des effectifs est faite alors que justement les excellents chiffres de la période, au contraire des autres entreprises françaises, auraient dû conduire SFR à organiser une discussion autour d’un partage des résultats », s’insurgent les organisations syndicales, rappelant que Patrick Drahi (photo), le patron fondateur de la maison mère Altice, s’était dit « sensible » au dialogue social au sein de l’entreprise.

Les télécoms pourtant préservées par la crise
Au lieu de cela, les négociations démarrent, selon les syndicats, sur des « bases tronquées, anti-économiques et antisociales ». Et les syndicats représentatifs de SFR d’enfoncer le clou : « Il serait en effet particulièrement intolérable que dans un secteur préservé par la crise, les pouvoirs publics puissent faire preuve d’un “turbulent silence”, face à des suppressions d’emplois qui vont peser sur les comptes sociaux de la nation, alors que l’entreprise est prospère ». En croissance de 2,4 % sur un an, l’opérateur SFR est la vache à lait d’Altice France, dont il génère 97 % du chiffre d’affaires total (lequel est de 10,9 milliards d’euros en 2020), avec un ratio de rentabilité opérationnelle de 39,8 % (Ebitda télécoms).
La volonté de SFR d’embaucher parallèlement 1.000 jeunes d’ici 2025 ne suffit pas à apaiser le courroux des syndicats. Ce millier de nouvelles recrues sur quatre ans se fera « sur les nouveaux métiers qualifiés du numérique, par exemple liés à la sécurité, l’analyse de la donnée ou l’IA ». Ce que la direction présente comme « un grand plan de recrutement » de 1.000 « jeunes diplômés » rend d’autant plus indigeste pour les syndicats la suppression de 18 % des effectifs de SFR, même si « l’embauche de jeunes est une nécessité ».

« Transformation et ambitions 2025 »
En annonçant le 3 mars son projet stratégique « Transformation et ambitions 2025 », SFR a justifié son objectif de 1.700 suppressions d’emplois par, d’une part pour 400 d’entre eux, la baisse de fréquentation dans les boutiques (- 30 %) et la progression continue des actes en ligne, et, d’autre part pour 1.300 d’entre eux, l’évolution du réseau de boutiques ramené à 568 magasins d’ici fin 2022. En outre, dans le cadre de ses obligations légales qu’il affirme déjà dépasser, le groupe Altice France-SFR – incluant les médias BFM et RMC – s’est engagé à créer 1.000 contrats d’apprentissage par an. « A l’heure où nous sommes déjà dans une phase d’investissements massifs pour la fibre et la 5G, nous devons, en tant qu’acteur sur lequel repose toute l’économie numérique, nous mettre en ordre de marche et nous fixer des objectifs élevés pour faire face à ce niveau d’exigence », a expliqué Grégory Rabuel, directeur général de SFR. Le deuxième opérateur télécoms en France revendique 25 millions de clients.
L’un des points d’achoppements entre direction et syndicats réside dans la demande des seconds à ce que l’emploi soit maintenu jusqu’en 2025 au niveau où il est début 2021. Pour la direction, ces exigences « posées en préalable à toute négociation » sont « incompatibles avec la situation de l’entreprise et la nécessité de sa transformation » (3). Pour les syndicats, il ne s’agit pas d’un « péalable » mais d’un contre-projet à négocier. Nul ne sait maintenant quand la direction présentera son plan de réorganisation. La dernière entrevue entre les syndicats de SFR et le président d’Altice Europe, Patrick Drahi, accompagné de son directeur opérationnel Armando Pereira, remonte au 16 décembre 2020. Les deux dirigeants auraient alors assuré aux organisations syndicales leur « attachement à un dialogue social de qualité ». Mais ces dernières ont rapidement déchanté, constatant début février « que le dialogue social est en mode totalement dégradé et qu’il n’existe plus d’interlocuteur faisant un lien entre les salariés, leurs représentants et vous [Drahi et Pereira] ».
La vente au groupe espagnol Cellnex de la filiale Hivory, qui se présente au sein d’Altice comme « la 1ère Tower Co en France » avec son parc de plus de 10.000 points hauts pour les antennes mobiles 3G, 4G et 5G (pylônes, châteaux d’eau, toits-terrasses, …), est aux yeux des syndicats révélatrice de l’absence de concertation et d’information préalable. Les partenaires sociaux ont appris la nouvelle par voie de presse (4). Hivory a comme principal client SFR, mais travaille aussi avec Bouygues Telecom et Free. Autres signes de dégradation du climat social et des conditions de travail : le recours massif au télétravail, sous prétexte de crise sanitaire, s’est fait sans concertation et sans accompagnement (5) ; le recours au chômage partiel pour des milliers de salariés a permis des économies substantielles pour le groupe. Depuis l’annonce du plan social le 3 mars, le dialogue de sourds s’est installé et la réunion du 10 mars a donné le coup d’envoi du bras de fer social. La direction de SFR, elle, défend son projet stratégique « Transformation et ambitions 2025 » auprès de ses « partenaires sociaux » en invoquant « l’accélération de la digitalisation des usages constatée par tous depuis le début de la crise sanitaire », « de[s] revenus captés par d’autres acteurs » (les GAFAN), « de[s] tarifs toujours très bas » et « une fiscalité spécifique au secteur extrêmement lourde ». Le groupe Altice France-SFR entend « poursuivre sur le long terme sa politique d’investissements efficace ». Il s’agit, selon la direction, de pouvoir absorber le trafic qui ne cesse d’augmenter chaque année (+35 % de trafic pour SFR en 2020) et de s’adapter aux évolutions technologiques récurrentes, comme la fibre et la 5G. Côté fibre : « Altice France-SFR poursuivra le déploiement de l’infrastructure fibre du pays et se fixe comme objectif le raccordement de plus de 90 % des foyers français en 2025 » et « vise 5 millions de nouveaux clients FTTH ». Côté 5G : « Altice France- SFR appuiera ses efforts de déploiement 5G et couvrira 98 % des villes de plus de 10.000 habitants en 5G », dont Paris depuis le 19 mars.

Altice Europe n’a plus la cote
Quant à la maison mère d’Altice France-SFR, Altice Europe, elle n’est plus cotée à la Bourse d’Amsterdam depuis le 27 janvier dernier. Le milliardaire Patrick Drahi a repris le contrôle (plus de 92 % du capital) du groupe de télécoms et de médias qu’il a fondé et dont il était déjà actionnaire majoritaire. Son opération de rachat d’actions avait pour objectif de ne plus être pénalisée par les investisseurs inquiets de sa dette, bien que ramenée à 28,5 milliards d’euros (6). @

Charles de Laubier