Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d’économie, Telecom ParisTech

Justice prédictive et « boîtes noires » : qui gardera les algorithmes dans notre démocratie numérique ?

Le prédictif — à grand renfort d’intelligence artificielle et d’algorithmes — nous apporte un nouveau type de connaissances. Mais il faut identifier les possibles effets pervers de « la boîte noire » et éviter que la justice prédictive ne devienne une justice « performative » ou « auto-réalisatrice ».

Fabrice Lorvo*, avocat associé, FTPA.

Le rapport Villani (1) sur l’intelligence artificielle (IA) – laquelle est, rappelonsle, le fait de créer des processus cognitifs comparables à ceux de l’être humain – préconise que la France avec l’Europe devienne un leader mondial de l’intelligence artificielle. Il s’agit de donner un sens à cette intelligence, qui doit seconder et non remplacer l’intelligence humaine.

L’intelligence artificielle devient une affaire d’Etat

En fait. Le 29 mars, le président de la République, Emmanuel Macron, a annoncé que la France allait consacrer à l’intelligence artificielle (IA) 1,5 milliard d’euros d’ici à 2022 (la fin de son quinquennat). Le 28 mars, le rapport du député (LREM) Cédric Villani sur l’IA a été publié. Il souligne le retard de l’Europe.

En clair. L’Etat français devient un peu plus « technocratique ». C’est tout juste s’il ne ferait pas de l’intelligence artificielle (IA) une cause nationale. Dans son discours au Collège de France (1), le 29 mars, le chef de l’Etat a fait part de sa décision de constituer « un hub de recherche au meilleur niveau mondial en IA, grâce à la mise
en place d’un programme national », afin de faire de la France « l’un des leaders » dans ce domaine assez conceptuel et complexe. Pour financer cette ambition, Emmanuel Macron débloque des « crédits publics » à hauteur de 1,5 milliard d’euros sur cinq ans (2018-2022). Une bonne partie proviendra du Fonds pour l’innovation de rupture, constitué en janvier dernier au sein de l’établissement public Bpifrance et doté, lui, de 10 milliards d’euros issus de ventes d’actifs Engie et Renault effectuées au second semestre 2017 (pour 1,6 milliard d’euros) et de titres EDF et Thales (8,4 milliards d’euros). Ce fonds a déjà prévu d’allouer 70 millions d’euros par an à des
start-up de la « deep tech » : deep learning, deep mining, et bien sûr le deep AI. A
ne pas confondre avec le « Deep Web » ou le « Dark Net », qui constituent la face cachée du réseau où se mêlent bonnes intentions et malversations (2). Pour le financement de start-up spécialisées dans l’IA, 100 millions d’euros leur seront consacrés dans les prochains mois. A part le fonds de Bpifrance, d’autres sources publiques seront mis à contribution telles que le Plan d’investissement dans les compétences, et le Fonds pour la transformation de l’action publique. Il s’agit aussi d’endiguer la fuite des cerveaux, la France étant reconnues pour ses mathématiciens
et ses informaticiens.
Mais ces 1,5 milliard d’euros de « crédits publics » restent somme toute très modestes par rapport, par exemple, aux 22 milliards de dollars que la Chine a prévu d’investir d’ici 2020 dans l’IA. Les Etats-Unis, eux, sont à la pointe avec les GAFAM qui ont fait de l’IA leur fonds de commerce. Mais Emmanuel Macron table sur l’engouement qu’il espèce susciter en France, malgré le retard de l’Hexagone et celui de l’Europe (3), en attirant les investissements d’entreprises privées pour développer ce qu’il appelle
« l’écosystème IA » : ont déjà répondu à l’appel Samsung (centre de recherche IA), Fujitsu (idem), Microsoft (formation), Google (chaire), IBM (recrutements), et DeepMind, filiale d’Alphabet (laboratoire). @

Audrey Azoulay face à la mise en oeuvre la Convention de l’Unesco de 2005 «dans l’environnement numérique»

Les « directives opérationnelles sur la mise en oeuvre de la Convention [de 2005] dans l’environnement numérique », approuvées à Paris en juin et entérinées en décembre 2017, font désormais parties des objectifs des Nations Unies à l’horizon 2030. A Audrey Azoulay maintenant de les mettre en musique.

La Française Audrey Azoulay (photo), directrice générale d’l’Unesco depuis novembre 2017, va maintenant devoir mettre en oeuvre « dans l’environnement numérique » la Convention de 2005 sur la protection et la promotion de la diversité des expressions culturelles. Plus de quinze ans après sa signature à Paris (le 20 octobre 2005) et dix ans après son entrée en vigueur il y a dix ans (le 18 mars 2007), la Convention de l’Unesco – ratifiée par 145 Etats et l’Union européenne (UE) – cherche à s’adapter à Internet et aux plateformes en ligne dominées par les GAFA, sous peine d’obsolescence.

Œuvres et créations salariées : le droit d’auteur français manque cruellement de réalisme

Nombreux sont les salariés qui génèrent des droits d’auteur sans le savoir. Nombreux sont aussi les employeurs à commettre des actes de contrefaçon à leur insu, en exploitant ces créations sans avoir eu l’autorisation préalable de leurs salariés. Or le droit français gagnerait à plus de réalisme.

Marie-Hélène Tonnellier, Hervé Castelnau et Corentin Pallot – Latournerie Wolfrom Avocats

La méconnaissance des raffinements de notre droit d’auteur par le salarié, voire par son employeur, permet le plus souvent de préserver ce fragile équilibre. Mais la naissance d’un litige entre ceux-ci peut s’accompagner d’une prise
de conscience par le salarié de l’illicéité éventuelle de l’exploitation faite par son employeur, avec des conséquences parfois très regrettables pour ce dernier.