La « bulle IA » déjà multimilliardaire va-t-elle éclater comme son ancêtre la « bulle Internet » ?

Mars 2000 et mars 2024. Près d’un quart de siècle sépare ses deux dates. La première marque l’éclatement de la « bulle Internet » ; la seconde est celle de l’état de la « bulle IA » aujourd’hui. Les perspectives de chiffre d’affaires de l’intelligence artificielle suscitent frénésie. Mais à risque.

Euphorie, exubérance, spéculation, effervescence, irrationalité ou encore inconscience : toutes les conditions financières et comportementales sont aujourd’hui réunies pour que l’agitation planétaire autour des intelligences artificielles génératives fasse gonfler encore plus la « bulle IA » actuelle. Les géants du numérique et les start-up/licornes technologiques qui la composent au niveau mondial cumulent à elles seules dans ce domaine une valorisation totale – capitalistique et/ou boursière – qui se chiffre en trilliards d’euros, soit des milliers de milliards d’euros.

Pas « si » la bulle IA va éclater, mais « quand »
Et la licorne OpenAI – valorisée 80 milliards de dollars selon le New York Times daté du 16 février 2024 (1) – n’est que la partie émergée de l’iceberg du marché planétaire de l’intelligence artificielle. Présidée par son cofondateur Sam Altman (photo), elle s’est propulsée à la première place mondiale des IA génératives en lançant le 30 novembre 2022 – il y a seulement quatorze mois ! – ChatGPT. Et le chiffre d’affaires de la société californienne a bondi, grâce aussi à son autre IA générative à succès Dall·E, pour atteindre sur l’année 2023 la barre des 2 milliards de dollars de chiffre d’affaires, d’après cette fois le Financial Times du 9 février dernier (2). Du jamais vu, aussi bien en termes de valorisation que de revenu, pour une jeune pousse créée en 2015 sous forme de laboratoire de recherche en IA, à but non lucratif, et assortie depuis 2020 d’une entité commerciale.

Le partenariat infonuagique, financier et capitalistique avec Microsoft (3), débuté progressivement à partir de 2019 et estimé actuellement à 13 milliards de dollars, a contribué au succès d’OpenAI. Depuis, la concurrence des IA génératives (GenAI) et de leurs grands modèles de langage (LLM) bat son plein : Anthropic avec Claude, Google avec Gemini/Gemma, Meta avec Llama, Mistral AI avec Large, pour ne citer que les plus financés et les plus avancés, en attendant aussi le discret Ferret d’Apple (4). Par exemple, Anthropic – l’un des rivaux les plus sérieux d’OpenAI – a vu sa valorisation dépasser les 15 milliards de dollars, après avoir levé à l’automne dernier 6 milliards de dollars auprès d’Amazon (deux-tiers) et Google (un tiers), somme qui s’est ajoutée au 1,5 milliard de dollars obtenus auparavant (5). Quant à la licorne française Mistral AI, après avoir pactisé avec Microsoft, encore lui, elle est courtisée par Softbank (6). Au total, les montants investis en capital risque dans l’IA sont colossaux : les milliers de milliards d’euros de valorisation constituent ainsi une « bulle IA » sans précédent, apparue en un temps record – moins d’un an et demi. Et l’afflux d’investissements vers l’IA continue, le patron d’OpenAI ayant même estimé – d’après les propos de Sam Altman au Wall Street Journal daté du 8 février (7) – jusqu’à 7.000 milliards de dollars le besoin d’argent nécessaire dans le monde au développement des IA pour les prochaines années. Le plus coûteux réside dans la puissance de calcul fournie par des puces superpuissantes, ces semiconducteurs étant appelés « unités de traitement graphique » ou GPU (Graphics Processing Unit). L’américain Nvidia est le numéro un mondial dans ce domaine.
Alors qu’il a fallu au moins cinq ans pour la « bulle Internet » avant d’atteindre jusqu’à 3 trilliards de dollars de valorisation. Et encore, avec l’aide à l’époque des importantes valorisations boursières dans les télécoms (opérateurs et équipementiers). La question n’est dès lors plus de savoir s’il y aura l’éclatement de la « bulle IA », mais quand. Car, comme le montre le cycle de la « hype », toute nouvelle technologie suit une courbe qui atteint rapidement un pic (effet « waouh »), avant de redescendre brusquement, puis de reprendre progressivement son souffle pour atteindre un plateau qui progressera lentement au cours des années suivantes (8). A côté, en France, la recommandation du Comité de l’intelligence artificielle générative, de créer un fonds d’investissement qui serait baptisé « France & IA » et qui mobiliserait 10 milliards d’euros de capital-investissement d’entreprise et de soutien public, semble dérisoire.

Des prévisions de revenus dithyrambiques
Installé depuis septembre 2023 auprès du Premier ministre, cette commission de l’IA a remis son rapport (9) le 13 mars au président de la République, alors qu’Emmanuel Macron se prépare à accueillir fin 2024 ou début 2025 à Paris le 2e Sommet sur la sécurité de l’IA (AI Safety Summit). Le rapport estime que l’IA pourrait augmenter en dix ans le PIB de l’Hexagone « de 250 à 420 milliards d’euros, soit autant que la valeur ajoutée de toute l’industrie ». Au niveau mondial, Grand View Research estime le chiffre d’affaires généré par l’IA à près de 200 milliards de dollars en 2023 (196,6 milliards précisément). Et avec une croissance prévisionnelle de 37,3 % en moyenne par an, le marché planétaire de l’IA atteindrait près de 1.819 milliards de dollars d’ici 2030. @

Charles de Laubier

L’affiliation publicitaire croît, notamment grâce à la presse pratiquant le « content-to-commerce »

Les articles de presse publicitaires sont de plus en plus nombreux sur les sites de presse en ligne (Le Figaro, Le Parisien, Le Point, 20 Minutes, Ouest-France, …) grâce aux liens d’affiliation. C’est une pratique éditoriale de vente en ligne en plein boom. Les journaux prennent des airs de boutiques.

Cette pratique marketing de plus en plus courante, qui consiste pour un éditeur de site web – presse en ligne en tête – de publier des articles qui promeuvent – en échange d’une commission perçue par lui sur les ventes générées par son intermédiaire – des produits ou des services. Lorsque le lecteur de cet article de presse – sans forcément d’ailleurs savoir qu’il s’agit d’un contenu éditorial de type publirédactionnel pour telle ou telle marque – clique sur le lien d’affiliation et va jusqu’à acheter le bien (souvent en promotion alléchante), le journal perçoit des royalties commerciales.

Près de 4 % du marché de l’e-pub
En France, de nombreux médias – et parmi les grands titres de presse (Le Figaro, Le Parisien, Le Point, 20 Minutes, Ouest-France, Le Monde, …) ou de l’audiovisuel (Europe 1, …) – se sont entichés de cette nouvelle forme de publicité éditoriale, quitte à rependre à l’identique l’habillage des articles écrits par leur rédaction de journalistes. A ceci près qu’il est parfois indiqué dans les articles d’affiliation la mention, par exemple, « La rédaction du Figaro n’a pas participé à la réalisation de cet article » ou « La rédaction du Parisien n’a pas participé à la réalisation de cet article ».
Les médias ne sont pas les seuls à pratiquer l’affiliation publicitaire, mais ils sont en première ligne étant donné leurs fortes audiences susceptibles de générer du « CPA ». Ce « coût par action » (Cost Per Action) est à l’affiliation ce que le « coût pour mille » (Cost Per Thousand) est au nombre de 1.000 « impressions » (affichages) d’une publicité mise en ligne, ou au « coût par clic » (Cost Per Click) lorsque le lecteur va cliquer sur une annonce publicitaire. Les prestataires d’affiliation se sont multipliés ces dernières années, notamment en France où l’on en compte de nombreux tels que : Awin, CJ Affiliate, Companeo, Effinity, Kwanko, Rakuten, TimeOne, Tradedoubler ou encore Tradetracker.

En 2023, le marché français de l’affiliation publicitaire a bondi de 7,1 % sur un an pour atteindre 367,4 millions d’euros de chiffre d’affaires (voir tableau page suivante). Ce sont les chiffres de l’Observatoire de l’e-pub publiés le 6 février, avec l’Union des entreprises de conseil et d’achat médias (Udecam), par le Syndicat des régies Internet (SRI), dirigé par Hélène Chartier (photo). L’affiliation pèse donc tout de même près de 4 % (3,95 % précisément) du marché total de la publicité digitale en France, lequel atteint en 2023 un peu plus de 9,3 milliards d’euros. Les professionnels du secteur sont pour la plupart réunis au sein du Collectif pour les acteurs du marketing digital (CPA), syndicat français qui fédère les acteurs du « marketing digital à la performance » créé en 2008. Le CPA représente un chiffre d’affaires global de 600 millions d’euros et 10.000 emplois.
De plus en plus de médias y trouvent leur compte. Face à la baisse des recettes publicitaires sur leurs supports traditionnels, notamment dans leurs éditions imprimées, des éditeurs de journaux optent pour ce « content commerce » (ou content-to-commerce). De nombreux titres de presse, même parmi les plus prestigieux, s’y mettent. Il ne s’agit plus là de mesurer le nombre de lecteurs de leurs articles habituels écrits pas leurs journalistes, mais de « calculer un revenu généré par page » et donc par article publicitaire ou promotionnel.
L’éditeur devenu e-commerçant peut, lorsque le CPA se vérifie, toucher une commission sur le prix de vente aux consommateur-lecteur allant, d’après Affilizz, plateforme de gestion d’affiliation pour les médias (start-up incubée par le Média Lab de TF1), de 2 % pour un produit hightech (smartphones, téléviseurs, montres connectées, etc) à 15 % pour les produits de luxe ou de cosmétiques (1). Certains médias, notamment de grands quotidiens, peuvent ainsi générer sur l’année quelques millions d’euros. Le taux de conversion de ces articles d’affiliation soumis au CPA se situent en moyenne autour des 3 % à 5 %, là où la publicité digitale classique (bannière ou display) atteint à peine 1 %.

Google News : 4,1 millions de lecteurs/mois
Pour optimiser leurs recettes « CPA », les médias concernés ont créé des rubriques en ligne d’articles dédiées telles que « Le Figaro Services », « Ouest-France Shopping », « Europe 1 l’équipe Shopping », « 20 Minutes Guide d’achat/Bon plan » ou encore « Le Point Services ». Contrairement aux articles payants des journalistes de leurs rédactions, ces articles d’affiliation vantant des produits ou des services sont accessibles gratuitement sur le site de presse en ligne (2). Ces contenus éditoriaux publicitaires et/ou promotionnels pullulent notamment sur les agrégateurs d’actualités – au premier rang desquels Google Actualités (3), comme l’a relevé Edition Multimédi@ (4). Une même campagne d’affiliation pour tel ou tel produit peut même y apparaître sous différents titres de presse auxquels le lecteur de Google News a accès via le lien « couverture complète de cet événement », comme n’importe quelle autre actualité ainsi regroupée. Et cela peut rapporter gros, dans la mesure où le numéro un des agrégateurs d’actualités est consulté par plus de 4 millions d’utilisateurs par mois – 4,17 millions mensuels en 2023, indique Google – pour un total chaque mois pour les éditeurs de médias référencés de plus de 3,8 milliards d’affichages de résultats et 194 millions de clics vers leurs sites de presse en ligne (5).

« La rédaction n’a pas participé à cet article »
Pas grand-chose cependant ne distingue ces publirédactionnels des autres articles de la rédaction des journalistes (même logo du titre de presse, même éditorialisation du texte, mêmes typos et titrailles, …). Pour le lecteur habitué du journal en question, il peut ne pas se douter que l’article au titre accrocheur est en fait commercial et rémunérateur pour l’éditeur.
A ceci près qu’au détour de la mise en page de cet article, le lecteur ou le consommateur (c’est selon) peut tomber sur la mention précisant que « la rédaction n’a pas participé à la réalisation de cet article ». Certains éditeurs en disent plus à la fin de l’article d’affiliation comme Le Figaro : « Contenu conçu et proposé par Le Figaro Services. La rédaction du Figaro n’a pas participé à la réalisation de cet article. Les prix mentionnés dans cet article le sont à titre indicatif. Lorsque vous achetez via nos liens de vente, nous pouvons percevoir une commission d’affiliation », précise le quotidien du groupe Dassault (6). Ou comme Le Parisien : « La rédaction du Parisien n’a pas participé à la réalisation de cet article. Certains liens sont trackés et peuvent générer une commission pour Le Parisien. Les prix sont mentionnés à titre indicatif et sont susceptibles d’évoluer », averti le quotidien du groupe LVMH (7). Contacté par Edition Multimédi@ sur les règles applicables dans Google Actualités – Google News que dirige mondialement Richard Gingras (photo ci-contre) – au regard de ces articles sponsorisés et/ou soumis à CPA, Google nous a répondu ceci : « Nous n’autorisons pas de contenu dans Google Actualités ou “À la une” qui dissimule ou déforme le caractère sponsorisé de ce contenu. Les articles qui apparaissent dans Google Actualités doit respecter les règles de Google en matière d’actualités ».
Et le géant du Net de nous renvoyer à son règlement où l’on peut lire une mise en garde des éditeurs à propos de leurs annonces et contenus sponsorisés : « La publicité et d’autres contenus promotionnels rémunérés sur vos pages ne doivent pas occuper plus d’espace que vos contenus d’actualités. Nous n’autorisons pas les contenus qui dissimulent la nature du contenu sponsorisé ou qui le font passer pour du contenu éditorial indépendant. Tout sponsoring (y compris, mais sans s’y limiter, un intérêt en tant que propriétaire ou société affiliée, une rémunération ou un soutien matériel) doit être clairement indiqué aux lecteurs. Le sujet du contenu sponsorisé ne doit pas être axé sur le sponsor sans que cela soit explicitement signalé » (8).
Si un site web d’un titre de presse enfreint ses règles, Google « se réserve le droit d’examiner le contenu et supprimer des URL individuelles [liens vers l’article hébergé sur le site de l’éditeur, ndlr] afin qu’elles n’apparaissent pas dans Google Actualités ». Le site web, dont l’actualité sponsorisée a été déréférencée, doit alors corriger son contenu pour qu’il puisse apparaître à nouveau dans la recherche et les actualités. Une chose est sûre : les « médias commerçants » ont le vent en poupe, au risque de ternir leur image dans un mélange de genres éditorial. @

Charles De Laubier

Données produites par l’Internet des objets et l’informatique en nuage : ce que dit le Data Act

Le législateur européen poursuit ses travaux en vue de créer un marché unique des données. La dernière avancée en date : le règlement sur les données, dit « Data Act », entré en vigueur le 11 janvier 2024. Il sera applicable à compter du 12 septembre 2025. Tour d’horizon de ses principales dispositions.

Par Sandra Tubert, avocate associée, et Antoine Tong, avocat, Algo Avocats

Non, l’écran ne fabrique pas du « crétin digital »

En fait. Le 16 janvier, le président du Syndicat national de l’édition (SNE), Vincent Montagne, est reparti en croisade contre « les écrans » qu’il continue d’opposer aux livres (alors que l’on peut lire des ebooks sur écran). Il s’alarme du temps des jeunes passés sur les écrans, en parlant du « crétin digital ».

En clair. Lors de son discours à l’occasion des vœux du Syndicat national de l’édition (SNE), Vincent Montagne s’en est pris à nouveau aux jeunes qui soi-disant préfèrent les écrans plutôt que les livres. Comme si les livres numériques n’existaient pas (1). Comme si les ebooks destinés à la jeunesse n’avaient jamais été mis en ligne (romances, fantasy, fantastique, mangas, bandes dessinées, webtoons, …). Comme si les « adolécrans » ne lisaient pas de livres imprimés, alors qu’ils peuvent parfois devenir « accros » d’éditions intégrales de fictions de plusieurs centaines de pages (Hugo Publishing, BMR/Hachette Livre, Gallimard Jeunesse, …), comme l’a bien montré l’enquête « La jeunesse réinvente la lecture » parue dans Le Monde (2). Le déni de la réalité se le dispute à la croisade contre les écrans. « Les enfants de 8 à 12 ans passent près de 4 heures et demie par jour les yeux rivés à des écrans », a regretté Vincent Montagne, tout en évoquant « La Fabrique du crétin digital », livre d’un dénommé Michel Desmurget, paru en 2019 aux éditions du Seuil. Ce docteur en neuroscience a mis aux anges Vincent Montagne en publiant dans la même veine « Faites-les lire ! Pour en finir avec le crétin digital », un livre injonction édité cette fois en 2023 et à nouveau au Seuil (3).

Cette maison d’édition fait d’ailleurs partie depuis 2017 du groupe Média-Participations, dont Vincent Montagne est… le PDG. Avec le SNE, c’est haro sur tous les écrans ! « Cet été, la ministre suédoise de l’éducation, cela ne vous aura pas échappé, a décidé de revenir aux manuels scolaires après avoir constaté une “crise de la lecture” chez les écoliers qui travaillaient sur des tablettes », a en outre rapporté son président pour encore fustiger les écrans. Et d’ajouter : « La promotion de la lecture est au cœur de notre mission ».
Mais pas de la lecture sur les écrans, apparemment… Cette « mission » du bien (livre papier) contre le mal (l’écran digital) fait partie, selon Vincent Montagne, d’un dessein plus vaste : « Le livre […] est l’instrument de la formation cognitive et intellectuelle des nouvelles générations. Celles qui formeront la société de demain ne peuvent être abandonnées à la dictature des réseaux sociaux et de l’intelligence artificielle ». En dehors des pages d’un livre, point de salut. Diable ! « Lever les yeux des écrans pour les plonger dans les livres est un engagement qui nous oblige », conclut son président. @

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @