Robots, crawlers, IA, … levée de boucliers en ligne

En fait. Le 18 juin, la société Clipeum a annoncé avoir le premier quotidien régional Ouest-France comme nouveau client de son outil Botscorner qui permet d’identifier robots, crawlers et IA génératives pour les faire payer. Selon nos informations, le CFC n’y fait plus appel, lui préférant Human Security.

En clair. Après avoir annoncé le 23 mai la signature avec Le Monde pour l’utilisation de son outils Botscorner destiné à repérer et à cartographier les robots de crawling (aspirateurs de sites web destinés à exploiter leurs contenus), la société Clipeum – dont le nom veut dire « bouclier » en latin – a annoncé le 18 juin un nouvel accord avec, cette fois, Ouest-France. Ces deux nouveaux clients rejoignent ainsi les nombreux éditeurs de presse en ligne en France – Le Figaro, Le Parisien, L’Equipe, Le Point, Challenges, L’Usine nouvelle, Libération ou encore L’Express – qui ont opté pour ce type de solutions – Botscorner, DataDome, Human Security (ex-White Ops), … – capables d’analyser le trafic entrant et d’identifier les robots (bots) absorbant leurs articles.
Selon les informations de Edition Multimédi@, le Centre français d’exploitation du droit de copie (CFC), qui a lancé en 2018 son « outil de régulation des robots de crawling » (ORRC), ne s’appuie plus sur Botscorner depuis fin 2023 mais sur Human Security, une société newyorkaise. Objectif pour l’éditeur de presse en ligne : analyser les logs des bots et crawlers arrivant sur leurs sites web et proposer des licences d’autorisation rémunératrices aux sociétés qui activent ces robots de crawling.

Ces exploitants de contenus journalistiques se nomment Meltwater – épinglé en 2022 par le CFC avant un accord en février dernier (1) –, Press Monitor, Netvibes (Dassault Systèmes), Access Intelligence, Emplifi, ou encore Feeder et Flipboard (2), ainsi que désormais des opérateurs d’IA génératives comme ChatGPT d’OpenAI ou Gemini de Google. « Botscorner permet aux éditeurs d’identifier les robots (media monitoring, intelligence artificielle, SEO (3), RSS (4), …) et leur fournit ainsi les informations B2B (5) nécessaires pour leur permettre de réguler l’accès à leurs contenus protégés par le droit d’auteur et de nouer d’éventuels contrats », a expliqué Yan Gilbert, directeur général de Clipeum.
Cela permet aussi d’écarter les bots malveillants et de protéger les contenus contre le scraping (moissonnage du Web) qui relève du piratage en ligne s’il n’y a pas d’accord. Durant son partenariat de six ans avec Clipeum/Botscorner, l’ORRC du CFC a bénéficié à plus d’une cinquantaine de sites web. Le CFC a aussi pu signer avec une vingtaine de crawlers français et étrangers des licences encadrant les prestations de veille web. @

Elections européennes : le numérique au programme

En fait. Le dimanche 9 juin, les Français élisent leurs 81 députés européens (dès le 8 juin pour certains territoires ultra-marins et Français de l’étranger). Il n’y a pas moins de 38 listes pour ces élections européennes. Edition Multimédi@ a sélectionné quelques mesures-phare pour le numérique, dont l’IA.

En clair. Nous nous sommes concentrés sur le « Top 5 » des listes arrivant en tête des sondages (1), en allant de la cinquième position à la première (2).
« Europe écologie » (Marie Toussaint) : « Lancer un Digital Green and Social Deal qui place les technologies numériques au service de la réalisation d’une vie décente pour tous·tes dans les limites de la planète » ; « Passer une nouvelle étape dans la réglementation des cryptomonnaies » ; « Encadrer les consommations des datacenters sur le sol européen » ; « Briser le monopole des GAFAM en Europe en garantissant l’interopérabilité des services numériques » ; « Taxer les GAFAM ».
« La France insoumise » (Manon Aubry) : « Réglementer les IA » ; « Garantir un euro numérique 100 % public » ; « Reprendre le contrôle sur les multinationales du numérique » ; « Inscrire la neutralité du Net dans la Charte des droits fondamentaux de l’Union européenne » ; « Renforcer la réglementation sur l’IA, en interdisant les identifications biométriques et les technologies répressives » ; « Encadrer l’usage de l’IA dans les secteurs culturels et créatifs notamment par la transparence des algorithmes » ; « Réguler les “coffres à butin” (loot box) en jeux d’argent ».

« Parti socialiste » (Raphaël Glucksmann) : « Créer un fonds souverain pour investir dans le numérique, en imposant des obligations de financement sur le territoire européen aux géants étrangers (les GAFAM et les BATX) […] et en poussant un accord international sur l’IA » ; « Lutter contre la fracture numérique » ; « S’assurer qu’un contrôle humain et une approche non-discriminatoire sont appliqués à l’ensemble des services numériques faisant appel à l’IA » ; « Multiplier par 10 le budget de l’Agence de cyberdéfense européenne ENISA ».
« Renaissance » (Valérie Hayer) : « Mettre en œuvre un plan Europe 2030 [notamment en] 5 ans pour des capacités de calcul de rang mondial, dont trois des cinq supercalculateurs parmi les plus puissants au monde » ; « Mieux protéger nos enfants avec la majorité numérique à 15 ans sur les réseaux sociaux et le contrôle parental par défaut sur les mobiles ».
« Rassemblement nationale » (Jordan Bardella) : « Revoir les règles de la concurrence européenne pour autoriser la concentration des acteurs et créer des champions européens du numérique » ; « Défendre la constitution d’un cloud souverain européen » ; « Créer un environnement complet en faveur de l’IA ». @

Vie privée : comment l’IA de Bercy traque les fraudeurs du fisc jusque sur les réseaux sociaux

Du 23 mai au 6 juin 2024, les Français doivent déclarer leur impôts (revenus, immobilier, …). C’est l’occasion pour Edition Multimédi@ de faire le point sur l’utilisation de l’intelligence artificielle (IA) par le gouvernement dans sa lutte contre la fraude fiscale — jusque sur les réseaux sociaux.

Le Premier ministre Gabriel Attal (photo de gauche) en avait fait son cheval de bataille lorsqu’il était encore ministre délégué chargé des Comptes publics : la lutte contre la fraude fiscale, sociale et douanière. Et depuis son entrée à Matignon le 9 janvier 2024, il continue de suivre de près cette traque aux fraudeurs que son successeur Thomas Cazenave (photo de droite) intensifie grâce à l’IA et aux réseaux sociaux. « Contre la fraude fiscale, je m’étais engagé à renforcer les moyens humains : 281 agents ont été recrutés l’an dernier, et 350 supplémentaires le seront en 2024 », avait assuré Gabriel Attal lors de la présentation le 20 mars dernier du plan de lutte contre les fraudes aux finances publiques (1).

Traque aux bâtis et piscines non déclarés
Le plus jeune Premier ministre de la Ve République (35 ans) a aussi garanti qu’« en 2027, nous aurons recruté [1.500 agents supplémentaires dédiés à la lutte contre la fraude fiscale], 1.000 agents sur la fraude sociale, formé 450 cyber enquêteurs, [redéployé 100 équivalents temps pleins sur le contrôle douanier du e-commerce],et investi plus de 1 milliard d’euros pour moderniser nos outils numériques de détection et de lutte contre les fraudes » (2). Le plan de lutte contre la fraude aux impôts se dote d’un Office national anti-fraude aux finances publiques (ONAF), dont la création a été actée par décret du 18 mars. Issu en fait de la transformation du service d’enquête judiciaire et fiscal (SEJF), ce « service à compétence nationale » est notamment chargé de « recueillir, centraliser et exploiter tout renseignement ou information entrant dans son domaine d’intervention à des fins stratégiques, opérationnelles ou documentaires » (3).
Ce bras armé de Bercy et de sa Direction générale des finances publiques (DGFiP) sera « pleinement opérationnel dès le 1er juillet » prochain pour mener des enquêtes et des poursuites judiciaires, le nombre d’officiers judiciaires devant doubler d’ici l’année prochaine à 80 agents.

Parmi les outils numériques déployés pour traquer les mauvais payeurs, l’IA appliquée aux réseaux sociaux figure en bonne place. Google et Capgemini sont mis à contribution depuis 2021 pour mettre en scène l’IA et le data mining au service des agents du fisc qui utilisent un logiciel issu de ce partenariat. Le premier apporte « l’infrastructure “cloud” ainsi que ses services pour les prestations de développement des modèles d’intelligence artificielle, qui s’appuient sur les briques technologiques développées open source »(dixitla DGFiP), et le second déploie son expertise en « intelligence de la donnée » via l’Union des groupements d’achats publics (Ugap), la centrale d’achat publique française. Cette détection des fraudes par l’IA consiste concrètement à « extraire les contours des immeubles bâtis ainsi que des piscines » sur la base des images aériennes publiques de l’IGN (4). Le traitement informatique dopé à l’IA vérifie si les éléments ainsi détectés sur les images sont correctement imposés aux impôts directs locaux comme la taxe foncière. Sinon, un courrier de demande de régularisation est envoyé aux propriétaires indélicats. « L’administration fiscale a désormais la maîtrise des modèles algorithmiques d’intelligence artificielle développés ainsi que leur propriété intellectuelle », se targue la DGFiP. Ce dispositif intelligent baptisé « Foncier innovant » (5) a montré son efficacité lors d’un premier bilan de « l’IA au service de la lutte contre la fraude » (6) établi en août 2022, et a donc été généralisé l’an dernier à l’ensemble de la France métropolitaine (7). Et ce, pour deux ans consentis par la loi de finances 2024 malgré les fortes réserves de la Cnil (8). A mars 2024, l’IA a permis de repérer 140.000 piscines non déclarées et de récupérer 40 millions d’euros pour les collectivités locales.
La traque à la fraude fiscale à l’ère du numérique prend aussi de l’ampleur sur les réseaux sociaux où bon nombre de Français exposent leur train de vie. Des entreprises fraudeuses sont aussi repérées en ligne. « Nous avons également pérennisé et étendu le webscrapping, c’est-à-dire l’utilisation de données sur les réseaux sociaux, ce qui nous permet notamment de contrôler l’exercice d’activités occultes non déclarées », a expliqué pour sa part Thomas Cazenave lors du bilan printanier (9).

L’Etat déficitaire récupère des milliards
Le ministre délégué chargé des Comptes publics (10) a indiqué que la DGFiP est habilitée à « mener des enquêtes sous pseudonyme », à travers le déploiement de cyber enquêteurs. Ce sont ainsi près de 800 agents qui pourront cyber-enquêter, épaulés par 50 agents habilités à s’infiltrer auprès des fraudeurs sur Internet. L’année 2024 pourrait battre un nouveau record historique de redressement fiscaux, par rapport au précédent de 2023 qui avait rapporté 15,2 milliards d’euros dans les caisses de l’Etat déficitaire. Auxquels se sont ajoutés 1,2 milliard d’euros de redressements Urssaf. @

Charles de Laubier

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @

La « bulle IA » déjà multimilliardaire va-t-elle éclater comme son ancêtre la « bulle Internet » ?

Mars 2000 et mars 2024. Près d’un quart de siècle sépare ses deux dates. La première marque l’éclatement de la « bulle Internet » ; la seconde est celle de l’état de la « bulle IA » aujourd’hui. Les perspectives de chiffre d’affaires de l’intelligence artificielle suscitent frénésie. Mais à risque.

Euphorie, exubérance, spéculation, effervescence, irrationalité ou encore inconscience : toutes les conditions financières et comportementales sont aujourd’hui réunies pour que l’agitation planétaire autour des intelligences artificielles génératives fasse gonfler encore plus la « bulle IA » actuelle. Les géants du numérique et les start-up/licornes technologiques qui la composent au niveau mondial cumulent à elles seules dans ce domaine une valorisation totale – capitalistique et/ou boursière – qui se chiffre en trilliards d’euros, soit des milliers de milliards d’euros.

Pas « si » la bulle IA va éclater, mais « quand »
Et la licorne OpenAI – valorisée 80 milliards de dollars selon le New York Times daté du 16 février 2024 (1) – n’est que la partie émergée de l’iceberg du marché planétaire de l’intelligence artificielle. Présidée par son cofondateur Sam Altman (photo), elle s’est propulsée à la première place mondiale des IA génératives en lançant le 30 novembre 2022 – il y a seulement quatorze mois ! – ChatGPT. Et le chiffre d’affaires de la société californienne a bondi, grâce aussi à son autre IA générative à succès Dall·E, pour atteindre sur l’année 2023 la barre des 2 milliards de dollars de chiffre d’affaires, d’après cette fois le Financial Times du 9 février dernier (2). Du jamais vu, aussi bien en termes de valorisation que de revenu, pour une jeune pousse créée en 2015 sous forme de laboratoire de recherche en IA, à but non lucratif, et assortie depuis 2020 d’une entité commerciale.

Le partenariat infonuagique, financier et capitalistique avec Microsoft (3), débuté progressivement à partir de 2019 et estimé actuellement à 13 milliards de dollars, a contribué au succès d’OpenAI. Depuis, la concurrence des IA génératives (GenAI) et de leurs grands modèles de langage (LLM) bat son plein : Anthropic avec Claude, Google avec Gemini/Gemma, Meta avec Llama, Mistral AI avec Large, pour ne citer que les plus financés et les plus avancés, en attendant aussi le discret Ferret d’Apple (4). Par exemple, Anthropic – l’un des rivaux les plus sérieux d’OpenAI – a vu sa valorisation dépasser les 15 milliards de dollars, après avoir levé à l’automne dernier 6 milliards de dollars auprès d’Amazon (deux-tiers) et Google (un tiers), somme qui s’est ajoutée au 1,5 milliard de dollars obtenus auparavant (5). Quant à la licorne française Mistral AI, après avoir pactisé avec Microsoft, encore lui, elle est courtisée par Softbank (6). Au total, les montants investis en capital risque dans l’IA sont colossaux : les milliers de milliards d’euros de valorisation constituent ainsi une « bulle IA » sans précédent, apparue en un temps record – moins d’un an et demi. Et l’afflux d’investissements vers l’IA continue, le patron d’OpenAI ayant même estimé – d’après les propos de Sam Altman au Wall Street Journal daté du 8 février (7) – jusqu’à 7.000 milliards de dollars le besoin d’argent nécessaire dans le monde au développement des IA pour les prochaines années. Le plus coûteux réside dans la puissance de calcul fournie par des puces superpuissantes, ces semiconducteurs étant appelés « unités de traitement graphique » ou GPU (Graphics Processing Unit). L’américain Nvidia est le numéro un mondial dans ce domaine.
Alors qu’il a fallu au moins cinq ans pour la « bulle Internet » avant d’atteindre jusqu’à 3 trilliards de dollars de valorisation. Et encore, avec l’aide à l’époque des importantes valorisations boursières dans les télécoms (opérateurs et équipementiers). La question n’est dès lors plus de savoir s’il y aura l’éclatement de la « bulle IA », mais quand. Car, comme le montre le cycle de la « hype », toute nouvelle technologie suit une courbe qui atteint rapidement un pic (effet « waouh »), avant de redescendre brusquement, puis de reprendre progressivement son souffle pour atteindre un plateau qui progressera lentement au cours des années suivantes (8). A côté, en France, la recommandation du Comité de l’intelligence artificielle générative, de créer un fonds d’investissement qui serait baptisé « France & IA » et qui mobiliserait 10 milliards d’euros de capital-investissement d’entreprise et de soutien public, semble dérisoire.

Des prévisions de revenus dithyrambiques
Installé depuis septembre 2023 auprès du Premier ministre, cette commission de l’IA a remis son rapport (9) le 13 mars au président de la République, alors qu’Emmanuel Macron se prépare à accueillir fin 2024 ou début 2025 à Paris le 2e Sommet sur la sécurité de l’IA (AI Safety Summit). Le rapport estime que l’IA pourrait augmenter en dix ans le PIB de l’Hexagone « de 250 à 420 milliards d’euros, soit autant que la valeur ajoutée de toute l’industrie ». Au niveau mondial, Grand View Research estime le chiffre d’affaires généré par l’IA à près de 200 milliards de dollars en 2023 (196,6 milliards précisément). Et avec une croissance prévisionnelle de 37,3 % en moyenne par an, le marché planétaire de l’IA atteindrait près de 1.819 milliards de dollars d’ici 2030. @

Charles de Laubier