L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

Casques : la start-up française Lynx lève des fonds

En fait. Alors qu’Apple commence le 2 février la commercialisation de son casque de réalité mixte Vision Pro aux Etats-Unis, la start-up française Lynx Mixed Reality va produire en nombre son casque – de réalité mixte aussi (AR/VR) – à partir du 12 février. Son fondateur nous confirme avoir levé des fonds.

En clair. « Nous allons effectuer la première production en masse de notre casque de réalité mixte Lynx R1, en assemblant dès le 12 février 500 unités ‘’PVT’’ [comprenez Production Validation and Testing, à savoir la dernière phase avant le début de la production en série, ndlr]. Et nous devrions passer à 1.000 unités produites dès le mois d’avril », indique à Edition Multimédi@ Stan Larroque, le PDG fondateur de Lynx Mixed Reality, alias la start-up française SL Process dont il est l’actionnaire principal.
Ce millier de casques produits dès le printemps est possible grâce à une levée de fonds en cours. « J’aurai de très bonnes nouvelles à vous partager en février concernant la société », nous confie-t-il, sans toutefois préciser le montant des fonds levés. Initialement, il avait indiqué le 21 décembre dernier avoir envisagé une « production de masse à 1.000 exemplaires par mois d’ici fin 2023 » mais la start-up basée à Boulogne-Billancourt a dû lever le pied car le financement n’était pas encore à la hauteur. « Cela est dû en grande partie au calendrier de notre collecte de fonds, qui devrait se terminer avec succès entre janvier et février 2024 », avait alors précisé Stan Larroque (1).

Le Lynx R1 est assemblé à Taïwan. Le 12 février correspond au premier jour ouvrable après le Nouvel An chinois qui commence le 10 février et qui correspond à l’année du Dragon, lequel symbolise puissance et prospérité. C’est ce que l’on pourrait souhaiter de meilleur à cette start-up française. Jusqu’alors, elle a passé l’année 2023 dans des phases successives dites DVT (Design Validation Testing). Ces tests de validation de conception ont permis de corriger des défauts et des dysfonctionnements du Lynx R1. Ces prototypes ont été fabriqués à 200 unités début 2023, puis à 300 unités l’été dernier. Et Jean-Michel Jarre a pu tester un Lynx R1 lors de son concert à Versailles le 25 décembre dernier (2), entre la galerie des Glaces et le métavers sur Vroom.
Le Lynx R1 vise d’abord les entreprises et les professionnels. « Nous arrêtons de vendre le modèle “development kit” [à 849 $ ou €, ndlr] ; le prix du Lynx R1 est 1.299 € [ou $] », nous précise Stan Larroque. C’est environ 2,5 fois moins cher (3) que les 3.499 $ du Vision Pro (4) d’Apple, tandis que le Quest Pro de Meta a vu son prix ramené à 999,99 $ aux États-Unis (5) contre 1.199,99 € en Europe. @

Non, l’écran ne fabrique pas du « crétin digital »

En fait. Le 16 janvier, le président du Syndicat national de l’édition (SNE), Vincent Montagne, est reparti en croisade contre « les écrans » qu’il continue d’opposer aux livres (alors que l’on peut lire des ebooks sur écran). Il s’alarme du temps des jeunes passés sur les écrans, en parlant du « crétin digital ».

En clair. Lors de son discours à l’occasion des vœux du Syndicat national de l’édition (SNE), Vincent Montagne s’en est pris à nouveau aux jeunes qui soi-disant préfèrent les écrans plutôt que les livres. Comme si les livres numériques n’existaient pas (1). Comme si les ebooks destinés à la jeunesse n’avaient jamais été mis en ligne (romances, fantasy, fantastique, mangas, bandes dessinées, webtoons, …). Comme si les « adolécrans » ne lisaient pas de livres imprimés, alors qu’ils peuvent parfois devenir « accros » d’éditions intégrales de fictions de plusieurs centaines de pages (Hugo Publishing, BMR/Hachette Livre, Gallimard Jeunesse, …), comme l’a bien montré l’enquête « La jeunesse réinvente la lecture » parue dans Le Monde (2). Le déni de la réalité se le dispute à la croisade contre les écrans. « Les enfants de 8 à 12 ans passent près de 4 heures et demie par jour les yeux rivés à des écrans », a regretté Vincent Montagne, tout en évoquant « La Fabrique du crétin digital », livre d’un dénommé Michel Desmurget, paru en 2019 aux éditions du Seuil. Ce docteur en neuroscience a mis aux anges Vincent Montagne en publiant dans la même veine « Faites-les lire ! Pour en finir avec le crétin digital », un livre injonction édité cette fois en 2023 et à nouveau au Seuil (3).

Cette maison d’édition fait d’ailleurs partie depuis 2017 du groupe Média-Participations, dont Vincent Montagne est… le PDG. Avec le SNE, c’est haro sur tous les écrans ! « Cet été, la ministre suédoise de l’éducation, cela ne vous aura pas échappé, a décidé de revenir aux manuels scolaires après avoir constaté une “crise de la lecture” chez les écoliers qui travaillaient sur des tablettes », a en outre rapporté son président pour encore fustiger les écrans. Et d’ajouter : « La promotion de la lecture est au cœur de notre mission ».
Mais pas de la lecture sur les écrans, apparemment… Cette « mission » du bien (livre papier) contre le mal (l’écran digital) fait partie, selon Vincent Montagne, d’un dessein plus vaste : « Le livre […] est l’instrument de la formation cognitive et intellectuelle des nouvelles générations. Celles qui formeront la société de demain ne peuvent être abandonnées à la dictature des réseaux sociaux et de l’intelligence artificielle ». En dehors des pages d’un livre, point de salut. Diable ! « Lever les yeux des écrans pour les plonger dans les livres est un engagement qui nous oblige », conclut son président. @

Fermé et accusé de monopole, Apple consolide son walled garden aux commissions abusives

Apple a délogé Samsung en 2023 de la première place mondiale des fabricants de smartphones. De quoi conforter la marque à la pomme dans son modèle économique verrouillé et contesté. En plus des taxes de 30 % (ou 15 %), une nouvelle à 27 % (ou 12 %) va se retrouver devant la justice. Aux Etats-Unis, bientôt en Europe ?

« La dernière fois qu’une entreprise qui n’était pas Samsung s’est retrouvée au sommet du marché mondial des smartphones, c’était en 2010 [avec Nokia en tête à l’époque, ndlr]. Et pour 2023, il y a maintenant Apple », a indiqué le cabinet d’études international IDC le 15 janvier dernier. « Le succès et la résilience continus d’Apple sont en grande partie imputables à la tendance croissante des smartphones haut de gamme, qui représentent maintenant plus de 20 % du marché mondial, alimentée par des offres de remplacement agressives et des plans de financement sans intérêts d’emprunt », souligne Nabila Popal, directrice de recherche chez IDC.

N°1 mondial pour la toute première fois
Ainsi, le « malheur » de Samsung fait le « bonheur » d’Apple qui a crû sur un marché mondial des smartphones pourtant en déclin de – 3,2 % en 2023 par rapport à l’année précédente. Il s’agit même, constate IDC (1), du volume annuel le plus bas en une décennie, avec 1,17 milliard d’unités vendues l’an dernier. « Apple est le seul acteur dans le “Top 3” à afficher une croissance positive chaque année, […] malgré les défis réglementaires croissants et la concurrence renouvelée de Huawei en Chine, son plus grand marché », ajoute Nabila Popal. Cela dit, pas sûr que la firme de Cupertino (Californie) – pour la toute première fois numéro un mondial des smartphones depuis le lancement de l’iPhone en 2007 – se maintienne longtemps en haut du podium mondial, en raison de l’offensive du fabricant sud-coréen avec la commercialisation, à partir du 31 janvier, de ses nouveaux Galaxy S24 boostés à l’IA (S24, S24 + et S24 Ultra) annoncés des Etats-Unis le 17 janvier dernier (2).
Le monde iOS fermé et verrouillé d’Apple – que Edition Multimédi@ avait surnommé en 2010 l’«”iPrison” dorée » (3) – devra aussi composer avec l’ex-numéro deux mondial des smartphones, le chinois Huawei (4), lequel regagne du terrain malgré son ostracisation par l’administration américaine. Sans oublier l’avancée de quatre autres chinois : Xiaomi (3e position en 2023), Oppo (4e), Transsion (5e) et OnePlus (en embuscade), ainsi que l’espagnol Vivo, ou encore l’américain Google avec ses Pixel (5) – en plus d’être à l’origine d’Android, le rival d’iOS.

Pour cette année 2024, le marché mondial des smartphones devrait repartir à la hausse : + 3,5 %, selon les prévisions d’IDC. Apple est dépendant de ses iPhone qui pèsent encore pour 52,3 % de son chiffre d’affaires annuel, soit – sur le dernier exercice clos le 30 septembre 2023 – 200,5 milliards de dollars (sans compter les 28,3 milliards de dollars des iPad ni même les 28,3 milliards de dollars des Mac) sur un total de 383,2 milliards de dollars. Et le modèle économique de l’iOS, basé sur l’App Store lancé il y a plus de quinze ans, est une cash machine qui prélève à chaque transaction les fameux 30 % de commission, lorsque ce n’est pas 15 % dans certains cas – voire maintenant 27 % ou 12 % comme annoncé par la Pomme aux développeurs le 17 janvier (6). Sur ce terrain-là, le groupe dirigé par Tim Cook (photo) – depuis la démission en août 2011 de Steve Jobs (décédé le 5 octobre 2011) – a été sommé par la justice américaine de ne pas empêcher les éditeurs d’applications « iOS » de l’App Store d’orienter leurs utilisateurs vers leur site web et leur propre moyen de paiement. Ces transactions effectuées sur des liens externes pour poursuivre ses achats sur le web sont censées échapper à Apple, alors qu’elles sont tout de même taxées par le fabricant d’iPhone.
Cette commission de 30 % prélevée au passage sur chacune de ces transactions externes lui a valu un procès qui a duré près de quatre ans et qui fut initié par le persévérant éditeur de jeux vidéo Epic Games (« Fortnite »). L’affaire est allée jusqu’à la Cour suprême des Etats-Unis, laquelle avait statué en avril 2023 en faveur d’Apple en ne reconnaissant pas son « monopole » que dénonçait Epic Games. Et le 16 janvier dernier, cette même Cour suprême a rejeté les recours en appel formés par Epic Games et Apple (7). Pour autant, la Pomme devra s’en tenir à l’injonction de deuxième instance (District Court) qui l’oblige à laisser des transactions se faire sur des liens externes.

Epic Games et Spotify comptent sur le DMA
Mais le ver peut être dans le fruit : la firme de Cupertino a trouvé une parade en instaurant une nouvelle taxe de 27 % (ou 12 % pour les TPE) applicables à ces transactions externes, au lieu des 30 % (ou 15 %) qui posaient problème aux éditeurs tiers et à la justice. Aussitôt, le PDG fondateur d’Epic Games, Tim Sweeney, a annoncé le 17 janvier sur X (ex-Twitter) avoir déposé une plainte contre la « mauvaise foi » d’Apple à se conformer au jugement (8). La marque à la pomme voit déjà se profiler un autre front qui remettra en cause son walled garden : le Digital Markets Act (DMA) européen (9), qui entrera en vigueur le 6 mars prochain. Spotify a déjà annoncé le 24 janvier (10) que l’on pourra faire des achats in-app sur iPhone avec son propre moyen de paiement. @

Charles de Laubier

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @