L’IA générative s’invite dans la production de films et séries, secouant la création dans le 7e Art

Le 78e Festival de Cannes se déroule du 13 au 24 mai 2025, avec la 2e édition de la « Compétition immersive » qui célèbre les œuvres de réalité virtuelle ou réalisées – tendance oblige – avec l’intelligence artificielle. Ce sont surtout les IA génératives qui s’apprêtent à révolutionner le 7e Art.

Le calme avant la tempête ? Le monde du cinéma n’échappera pas au tsunami de l’intelligence artificielle. Le Festival de Cannes, qui tient sa 78e édition sur la Croisette durant presque deux semaines (13-24 mai 2025), commence à prendre en compte les films réalisés en tout ou partie par des IA génératives. L’événement international du 7e Art, organisé chaque année par l’Association française du festival international du film (AFFIF), dont Thierry Frémaux (photo) est le délégué général depuis 18 ans, inclut la « Compétition immersive » pour la seconde année consécutive.

Trucages, effets spéciaux, IA : continuité ?
Cette année, 16 œuvres immersives venant de neuf pays sont présentées en sélection, dont 9 en compétition et 2 hors compétition. « Ensemble, ces seize propositions offrent une vision d’ensemble d’un langage en pleine mutation – allant de la réalité virtuelle à la réalité mixte, en passant par le mapping vidéo et l’intelligence artificielle. Conçues pour être vécues plutôt que regardées, ces œuvres nous plongent dans des mondes imaginaires où espace, narration et émotion s’entrelacent », a indiqué le Festival de Cannes le 30 avril dernier, à l’occasion des présentations de la sélection et du jury, lequel remettra « le Prix de la meilleure œuvre immersive » lors de la cérémonie de clôture de la compétition immersive prévue le 22 mai prochain (1).
Parmi les œuvres présentées, il y a « Beyond the Vivid Unknown », de John Fitzgerald et Godfrey Reggio, un film qui se distingue par son utilisation notable de l’IA générative. « L’œuvre utilise l’apprentissage automatique génératif et la vision par ordinateur en temps réel pour suivre et répondre à la présence du spectateur. Au fur et à mesure que les participants se déplacent dans l’espace, l’installation passe de paysages intacts à l’essor de l’humanité et au chaos de notre avenir proche, reflétant l’enchevêtrement de l’humanité avec la technologie et impliquant le spectateur dans le récit », expliquent les producteurs américains. Cette œuvre (suite) réimagine ainsi avec l’IA le film-documentaire emblématique de Reggio de 1982, « Koyaanisqatsi », faisant à la fois l’éloge et la critique de la technologie. « “Beyond The Vivid Unknown” marque le moment où la technologie cesse de refléter le monde et commence à le réécrire par l’action collective » (2), est-il expliqué. Il s’agit apparemment de la seule œuvre créée avec de l’IA qui s’est invitée au Festival de Cannes. Parmi les sociétés de production qui ont participé à sa réalisation, il y a notamment Onassis ONX (ex-ONX Studio, pour « Onassis eXtended realities ») que la Fondation Onassis – créée il y a 50 ans par le milliardaire Aristote Onassis, ancien armateur grec – définit comme « une plateforme mondiale pour l’art des nouveaux médias et la culture numérique, où les idées créatives s’entremêlent avec des technologies innovantes, ouvrant la voie à des expériences immersives ». Ce programme mondial soutient ainsi « la créativité dans des domaines tels que l’intelligence artificielle (IA), la réalité virtuelle (RV), l’informatique spatiale et les médias numériques » (3).
Au nom du Festival de Cannes, Thierry Frémaux – qui est par ailleurs directeur de l’Institut Lumière de Lyon – considère que l’IA s’inscrit seulement dans la continuité technologique des trucages et des effets spéciaux utilisés de longue date par le 7e Art. « On peut utiliser l’intelligence artificielle dans le cinéma, à condition que cela soit au service de la poésie. A condition que cela soit au service de la qualité artistique du film. Ça fait bien longtemps que les films sont truffés de trucages numériques, truffés d’effets spéciaux, y compris des films tout à fait réalistes », avait-il confié au média vidéo Brut le 19 mars dernier (4). Trois jours avant, dans La Tribune Dimanche du 16 mars, à la question « Le cinéma doit-il craindre alors l’intelligence artificielle ? », Thierry Frémaux répondait en ces termes : « Non, parce que le cinéma, qui soit dit en passant utilise l’IA depuis des années [vraiment ?, ndlr], ne s’y résumera jamais. Pas plus que ChatGPT ne saura faire surgir “A la recherche du temps perdu”, l’IA ne va pas inventer le monde d’Ozu ou celui de Jacques Demy. Il faut des créateurs. Mais l’intelligence artificielle n’est pas uniquement un épate-gogos : s’il faut être prévenu de ses dangers, elle peut se montrer précieuse » (5).

L’IA s’incruste au Marché du Film
Parallèlement au Festival de Cannes, se tient la 56e édition du Marché du Film, du 13 au 21 mai, où il sera aussi question d’intelligence artificielle parmi les quelques 15.000 participants attendus (4.000 films et projets sont présentés par 140 pays). Par exemple, le 19 mai, une conférence sur le thème « De nouvelles opportunités pour les films de science-fiction à l’ère de l’IA » est présentée par Dreamina AI (plateforme créée par CapCut de ByteDance), en association avec Winston Baker, société spécialisée dans la curation de contenu pour l’industrie du divertissement. Autre exemple de conférence abordant l’IA dans le cinéma : le 20 mai, sur le thème « Immersive Spotlights, Beyond the Vivid Unknown : l’IA en tant que collaboratrice, miroir et créatrice de mythes ». Les participants, dont Matt Tierney, producteur et conseiller en IA/Musique chez OnAi Technologies, partent du principe que « l’IA n’est plus seulement un outil, c’est un collaborateur, un environnement, une force qui remodèle la perception et la production : de “Beyond The Vivid Unknown” aux systèmes d’IA générative d’aujourd’hui, nous explorons comment la créativité change lorsque les machines apprennent, imaginent et agissent à nos côtés ».

Les scénaristes sur la sellette
Le 18 mai, il est aussi question d’IA dans le cadre de Cannes Next, une plateforme dédiée à l’innovation et à l’avenir du divertissement, intégrée au Marché du Film du Festival de Cannes, et sur le thème de « Réinventer la production : naviguer dans les innovations en matière d’IA, les entreprises commerciales émergentes et le paysage juridique ». Présentée par l’International Screen Institute, cette conférence considère que « l’innovation basée sur l’IA redéfinit l’avenir de la production audiovisuelle ». Enfin, le 16 mai, s’est tenue un table-ronde sur le thème de « L’objectif créatif : l’évolution du rôle de GenAI dans le cinéma à travers les continents et les festivals », en présence notamment de Matthieu Lorrain, responsable de la création Google DeepMind, et de Max Wiedemann, responsable de l’IA chez Mediawan.
Ainsi, l’IA générative s’impose de plus en plus dans la création cinématographique et audiovisuelle. Elle n’a pas attendu le tapis rouge de la Croisette pour contribuer à la réalisation de films et séries. C’est cas du film « Next Stop Paris », produit par TCLtv+ Studios et sorti à l’été 2024, une comédie romantique entièrement générée par intelligence artificielle, utilisant notamment Stable Diffusion, de la startup Stability AI, pour la création des images et l’amélioration de leur fluidité. En 2023, il y a eu « The Frost », un courtmétrage de science-fiction réalisé par Waymark et sorti en 2023. Ce film de 12 minutes a été entièrement généré grâce à des outils d’IA, notamment Dall·E 2 d’OpenAI pour la création des images et Creative Reality Studio de la start-up israélienne D-ID pour animer les visages et les mouvements des personnages (6). L’IA dans le 7e Art peut susciter et suscitera des réactions épidermiques comme ce fut le cas l’an dernier pour le film « The Last Screenwriter », réalisé par Peter Luisi. Une vive controverse avait éclaté sous prétexte que son scénario avait été entièrement écrit par ChatGPT, ce qui a provoqué des débats sur l’impact de l’IA dans l’industrie cinématographique. La première mondiale, qui avait été programmée le 23 juin 2024 au Prince Charles Cinema de Londres, a dû être annulée après une vague de protestations du public, qui s’inquiétait de l’utilisation de l’IA à la place d’un scénariste humain. Le film a finalement été rendu accessible gratuitement en ligne (7) le 5 juillet suivant, accompagné d’une documentation expliquant son processus de création. Citons encore le film « Uncanny Valley », dont la sortie est prévue en 2026. Il est réalisé par Natasha Lyonne, qui utilise l’IA Marey – développée par Moonvalley – pour générer des visuels et des éléments narratifs. Contrairement à d’autres modèles d’IA, Marey a été entraîné uniquement sur du contenu sous licence, ce qui garantit une approche plus éthique de la production.
De nombreuses autres créations à l’aide de l’IA ont été remarquées telles que le film coréen « One More Pumpkin » qui a été presque entièrement réalisé avec l’IA pour des scènes, des sons ou encore des personnages. Il a remporté des Prix au Festival du Film AI de Dubaï 2024. Pour l’été prochain, il faudra être attentif à la sortie prévue du film « The Woman with Red Hair », produit par Staircase Studios AI, fondé par Pouya Shahbazian. Réalisé par Brett Stuart, avec un scénario écrit par Michael Schatz, ce long-métrage combine l’IA générative avec le talent de professionnels du cinéma pour produire des films à moindre coût. Et avant que ne se lance ChatGPT fin novembre 2022, sortait quelques mois plus tôt le film futuriste « Salt » (8), réalisé par Fabian Stelzer à partir d’IA génératives telles que Dall-E 2, Stable Diffusion et Midjourney.
En France, fin mars, a été lancé The Media Company, un studio de production cinéma européen qui veut « réinventer la création et la production de films à l’ère de l’IA ». En sont associés le producteur français Didier Lupfer (ex-directeur général adjoint du groupe Canal+ et ex-président de StudioCanal), Edouard Boccon-Gibod (ex-secrétaire général d’EuropaCorp) et Tariq Krim (entrepreneur, ex-PDG fondateur de Netvibes). Ils ambitionnent d’« intégrer l’IA dans toutes les étapes de la production » (9). Plus récemment, le 2 mai, le producteur-distributeur français Zed a lancé la série documentaire « Knut, le Viking Empereur », réalisée par Fabrice Buysschaert avec l’IA.

Vers une charte éthique sur l’IA
« L’intelligence artificielle n’est pas une affaire de science-fiction. C’est un levier de transformation très concret pour écrire plus vite, produire plus intelligemment, anticiper mieux », a assuré pour sa part fin avril Alexia Laroche Joubert (photo ci-dessus), directrice générale de Banijay France (10), qui utilise Genario, « une IA pensée par un scénariste et pour les auteurs » (11). L’IA a permis par exemple de simuler un yacht dans « Deal or No Deal Island » ou de créer le trouble dans « Deep Fake Love ». Banijay indique collaborer par ailleurs avec la Human Technology Foundation afin d’approfondir les réflexions éthiques et de se doter d’« une charte pour encadrer nos usages avec exigence et responsabilité ». @

Charles de Laubier

Pourquoi Google renonce à la fin des cookies tiers

En fait. Le 22 avril, Google a confirmé le maintien des cookies tiers dans son navigateur Chrome, abandonnant ainsi son projet « Privacy Sandbox » annoncé en 2019. La filiale d’Alphabet avait reporté à plusieurs reprises la fin de ces « mouchards » publicitaires, qui sont pourtant intrusifs dans la vie privée.

En clair. Après l’avoir annoncé en juillet 2024, voici que Google passe de la parole aux actes en confirmant en avril 2025 le maintien des cookies tiers qui devaient disparaître cette année après de multiples reports. « Au lieu de déprécier les cookies tiers, nous introduirons une nouvelle expérience dans Chrome qui permet aux utilisateurs de faire un choix éclairé s’appliquant à l’ensemble de leur navigation web, et ils seraient en mesure d’ajuster ce choix à tout moment », avait expliqué l’été dernier la filiale d’Alphabet (1).
Ces cookies dits tiers sont ces traceurs numériques qui sont déposés dans le terminal de l’utilisateur pour suivre les sites web qu’il visite et connaître ses « comportements » (navigation, clics sur les publicités, achats en ligne, géolocalisation, temps passé, etc.). Vice-président chez Google en charge de « Privacy Sandbox », programme alternatif qui devait remplacer les cookies tiers jugés intrusifs (2), Anthony Chavez a (suite)

justifié le 22 avril le maintien de ces derniers : « Beaucoup de choses ont changé depuis que nous avons annoncé l’initiative Privacy Sandbox en 2019 et que nous avons conclu en 2022 un engagement officiel avec le CMA et l’ICO [respectivement l’autorité de la concurrence et la “Cnil” britanniques, ndlr]. Par exemple, l’adoption de mesures d’amélioration de la protection de la vie privée technologies s’est accélérée. De nouvelles opportunités pour protéger et sécuriser les expériences de navigation avec l’IA ont émergé. Et le paysage réglementaire dans le monde a considérablement évolué. Nous avons donc décidé de maintenir notre approche actuelle pour offrir aux utilisateurs un choix de cookies tiers dans Chrome » (3). Dès juillet 2024, Stephen Bonner, membre de l’ICO avait déclaré : « Nous sommes déçus que Google ait changé ses plans ». Le 23 avril dernier, le Movement for an Open Web (Mow), coalition britannique d’acteurs technologiques et publicitaires, a interprété le revirement de Google comme une reconnaissance des obstacles réglementaires insurmontables, estimant le projet Privacy Sandbox comme « une tentative avortée de Google de prendre le contrôle » sur le marché de la publicité numérique (4).
En France, l’association Alliance Digitale a salué cette décision « inéluctable au regard des nombreuses lacunes techniques dont souffrait le projet et des risques toujours importants en matière de concurrence ». @

Sam Altman prévoit avec prudence de mettre en Bourse OpenAI, qui fêtera ses 10 ans fin 2025

La licorne OpenAI, cofondée par Sam Altman, Elon Musk et d’autres, achèvera sa première décennie d’existence en décembre 2025. La prochaine grande étape de la société éditrice de ChatGPT, que Edition Multimédi@ a questionné à ce sujet, sera son introduction en Bourse, envisagée avec prudence.

« OpenAI a annoncé en décembre 2024 son intention d’adopter le statut de Public Benefit Corporation (PBC), dans le Delaware, une structure juridique qui permet de concilier objectifs lucratifs et missions d’intérêt général. Cette évolution pourrait faciliter une future entrée en Bourse, bien qu’aucun calendrier précis n’ait été communiqué », a répondu ChatGPT à Edition Multimédi@ sur la future cotation de la célèbre licorne. D’après le chatbotmaison, son PDG Sam Altman (photo) envisage « avec prudence » cette IPO (1), « conscient des enjeux éthiques, juridiques et financiers liés à une entreprise développant une IA puissante ».

La Bourse et la vie : modèle hybride
OpenAI poursuit sa transition vers une structure commerciale. Initialement fondée en décembre 2015 comme organisation à but non lucratif, elle a adopté en 2019 un modèle hybride qui combine une entité à but lucratif (OpenAI LP) supervisée par une fondation mère à but non lucratif (OpenAI Inc.). La prochaine introduction en Bourse devrait permettre à la partie lucrative de lever suffisamment de capitaux pour répondre à la forte demande croissante d’investissement en développements et infrastructures pour l’intelligence artificielle. La « start-up-labo » a fait savoir fin mars qu’elle lèverait – avec l’aide de Softbank (2) – jusqu’à 40 milliards de dollars lors d’un nouveau tour de table, valorisant (une fois bouclé) la société à 300 milliards de dollars.
Cette levée de fonds, en cours, sera quatre fois supérieure aux 10 milliards de dollars initiaux réunis à partir de 2019, notamment auprès de Microsoft, qui augmenta par la suite sa mise (3). La licorne californienne a besoin (suite)

de financer son objectif de construire une AGI (Artificial General Intelligence) qu’elle définit comme « un système hautement autonome qui surpasse les humains dans le travail le plus économiquement valorisant ». D’après ChatGPT, des analyses envisagent une capitalisation boursière d’OpenAI pouvant dépasser les 400 milliards de dollars, dépassant IBM ou Tencent ! Et ce, tout en conservant une gouvernance éthique. Le 16 avril dernier, les membres de sa nouvelle « commission à but non lucratif » ont été dévoilés, pour guider OpenAI dans ses projets sociétaux. Daniel Zingale (photo ci-dessus) préside cette commission, aux côtés de la dirigeante syndicale reconnue et militante des droits civiques Dolores Huerta (4), et de trois autres conseillers : Monica Lozano, Robert Ross et Jack Oliver. « Les conseillers recevront des enseignements et commentaires de la communauté sur la façon dont la philanthropie d’OpenAI peut résoudre des problèmes systémiques à long terme, tout en tenant compte à la fois des promesses et des risques de l’IA », a précisé OpenAI (5). Les conclusions de la commission sont attendues dans les 90 jours, soit d’ici le 14 juillet. « Le conseil d’administration tiendra compte de ces idées pour faire évoluer l’organisation à but non lucratif OpenAI bien avant la fin de 2025 », a assuré début avril le PDG Sam Altman (6).
Conciliant recherche de profit et intérêt général, les deux entités d’OpenAI (OpenAI LP et OpenAI Inc.) vont être au cours de cette année 2025 chapeauté par une « holding » enregistrée dans l’Etat américain fiscalement avantageux du Delaware, sous le statut de Public Benefit Corporation (PBC), conformément à ce qu’OpenAI avait annoncé en décembre 2024. « Nous avons un organisme à but non lucratif et un à but lucratif aujourd’hui, et nous continuerons d’avoir les deux, le succès de l’organisme à but lucratif permettant à l’organisme à but non lucratif d’être bien financé, mieux soutenu et dans une position plus forte pour la mission », précise la licorne de l’IA à l’origine de ChatGPT lancé en novembre 2022. « Aujourd’hui, plus de 300 millions de personnes l’utilisent chaque semaine pour la productivité, l’apprentissage et plus encore, la plupart d’entre eux gratuitement », a indiqué l’entreprise qui va donc transformer sa partie lucrative en une PBC.

Statut PBC, « pour lever les capitaux nécessaires »
« [Ce statut PBC] exige que l’entreprise équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l’intérêt public dans sa prise de décision. Cela nous permettra de lever les capitaux nécessaires avec des conditions conventionnelles comme d’autres dans ce domaine », a assuré OpenAI, qui ambitionne d’être « l’un des organismes sans but lucratif les mieux dotés de l’histoire » (7). L’entité à but non lucratif détiendra des actions de la future société PBC, qui chapeautera aussi l’entité faisant des profits. En creux, l’éditeur de ChatGPT, de Dall-E ou encore de Sora prépare le terrain pour ouvrir son capital au public. Reste à connaître le calendrier d’introduction en Bourse. @

Charles de Laubier

Cyberattaques et IA fantômes : comment encadrer et gérer les risques qui menacent l’entreprise

L’intelligence artificielle générative est un moteur d’accélération des risques pour les entreprises. La révolution de l’IA peut alors tourner au cauchemar. Mais il n’y a pas de fatalité, pour peu que les dirigeants suivent les règlements, les recommandations et les guides de bonnes pratiques.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

L’intelligence artificielle générative transforme en profondeur les paradigmes de la cybersécurité. En s’appuyant sur des modèles entraînés à partir de volumes de données considérables, cette technologie offre des applications variées dans la défense contre les menaces ou la gestion des attaques cyber. Mais l’IA générative permet également le développement d’usages malveillants, donnant ainsi naissance à une nouvelle vague de cybermenaces. Dans ce contexte, les entreprises doivent concilier innovation et sécurité, tout en respectant un cadre réglementaire européen en pleine évolution.

Cybermenaces externes et internes
Grâce à ses capacités d’automatisation de traitement de données à grande échelle et d’apprentissage autonome, l’IA générative permet aujourd’hui de concevoir des attaques plus efficaces, ciblées et difficile à détecter. Dans le premier rapport international sur la sécurité de l’intelligence artificielle, intitulé « International AI Safety Report » (1) et publié en janvier 2025, les experts soulignent que les menaces cybernétiques se renforcent du fait que l’IA à usage général est favorisée par une exécution rapide, simultanée et à grande échelle d’opérations, tout en abaissant les coûts et les obstacles techniques. Parmi les pratiques, le phishing (hameçonnage) ne cesse de gagner en crédibilité, l’IA permettant de générer de façon automatique tous types de contenus, tels que des deepfakes (hypertrucages) personnalisés.
Les virus polymorphes sont capables de muter leur signature pour échapper aux détections. Ils ont la capacité de modifier leur empreinte numérique pour (suite)

ne pas être repérés par un antivirus. L’empoisonnement des données vient également altérer les prédictions d’un système d’intelligence artificielle s’appuyant sur le machine learning. Les ransomware (rançongiciels) tiennent également toujours une place importante dans l’univers des menaces, bien qu’en baisse depuis ces quatre dernières années. D’autres types d’attaques peuvent aussi permettre de s’emparer de données confidentielles, de perturber le processus de classification des données, ou d’effectuer une ingénierie inversée du modèle afin de le répliquer. Face à l’essor des cyberattaques amplifiées par l’IA générative, le modèle « Zero Trust » – autrement dit « ne faire aucune confiance, toujours vérifier » – s’impose comme une stratégie incontournable pour les entreprises. Ce cadre de sécurité repose sur une surveillance continue, une authentification renforcée et une segmentation stricte des réseaux. En intégrant des outils pilotés par l’IA, le Zero Trust (2) permet d’automatiser la détection des menaces, de prévenir l’exfiltration de données sensibles et de limiter la propagation des attaques au sein des systèmes. Cette approche proactive devient essentielle pour contrer les risques émergents tels que les malwares (logiciels malveillants) évolutifs ou les deepfakes utilisés dans des campagnes de phishing sophistiquées. En intégrant des outils alimentés par l’intelligence artificielle, les entreprises peuvent automatiser la détection des comportements anormaux et accélérer la réponse aux incidents, renforçant ainsi leur résilience face aux attaques générées par l’IA. Cependant, l’usage de l’IA générative par les développeurs informatiques est susceptible d’accroître le risque de failles de sécurité du logiciel et l’exploitation de vulnérabilités par les cyberattaquants des systèmes d’IA.
Selon le laboratoire d’innovation numérique de la Cnil (Linc), il existe trois grandes familles d’attaques de systèmes d’IA : les attaques par manipulation, qui ont pour objectif de contourner les résultats attendus ou d’induire des actions imprévues pour que le système d’IA effectue des tâches inattendues; les attaques par infection qui visent à compromettre la fiabilité des décisions produites par l’IA en compromettant les données utilisées pour l’entraînement du modèle, notamment par des attaques par empoisonnement via des logiciels malveillants ; les attaques par exfiltration qui ont pour objectif l’appropriation des données des systèmes d’IA, portant ainsi atteinte à la confidentialité des informations de l’entreprise et au respect de la vie privée des personnes concernées (3).

IA générative et système d’information
Ainsi, face à ces risques, les entreprises doivent adopter une approche raisonnée dans la mise en œuvre et le déploiement de systèmes d’IA afin de prévenir les atteintes à la sécurité de leurs systèmes d’informations, lesquels font un usage croissant de l’IA générative. Aussi, les entreprises doivent repenser leurs stratégies de cybersécurité. Dans ce contexte, la vérification continue des identités, le contrôle strict des accès et la segmentation fine des réseaux sont des pratiques de nature à limiter le risque. Il est ainsi stratégique pour toute organisation de sécuriser les actifs numériques selon cette approche « risque » dans un environnement marqué par des menaces toujours plus complexes. Le groupe d’experts de haut niveau sur l’IA – l’« AI HLEG » constitué par la Commission européenne en 2018 (4) – décrit sept principes éthiques destinés à rendre l’IA digne de confiance : action humaine et contrôle humain ; robustesse technique et sécurité ; respect de la vie privée et gouvernance des données ; transparence ; diversité, non-discrimination et équité ; bien-être sociétal et environnemental ; et responsabilité.

Encadrement normatif européen renforcé
Le règlement européen sur l’IA – l’AI Act entré en vigueur depuis le 1er août 2024 (5)  – établit des règles harmonisées pour la mise sur le marché et l’utilisation des systèmes d’IA dans l’Union européenne (UE), en mettant en place notamment une obligation de vigilance à la charge des fournisseurs et des déployeurs de systèmes d’IA, tout particulièrement pour les systèmes d’IA à haut risque. Les entreprises doivent ainsi classifier leurs systèmes d’IA et adapter leurs pratiques selon le niveau de risque. Concrètement, elles doivent procéder à une analyse interne en faisant une cartographie de leurs applications, une évaluation des risques spécifiques liés à l’IA envisagée, et des analyses d’impact. Il est nécessaire de mettre en place des mesures de transparence, particulièrement pour les systèmes d’IA générative utilisés pour générer justement ou manipuler des contenus, et de prévoir des explications sur les décisions fondées sur leur système d’IA à haut risque, du fait de leur impact sur les droits des utilisateurs.
En outre, l’AI Act impose que les systèmes d’IA soient encadrés par un processus de gestion des risques planifié, évolutif et mis à jour régulièrement, de la phase d’entraînement jusqu’à son déploiement. Cela vise à garantir une meilleure anticipation des menaces cyber et réduit les risques notamment via une conception sécurisée par défaut (security by design). Cette logique rejoint les exigences du règlement général sur la protection des données (RGPD), de la directive NIS2 en cours de transposition ou du règlement DORA applicable au secteur financier et de l’assurance (6).
Sur le plan humain, le règlement sur l’IA impose de former et de responsabiliser les personnes impliquées. Les entreprises doivent redoubler de vigilance dans la protection de leurs systèmes afin de lutter efficacement contre la compromission de leurs infrastructures d’hébergement de données ou de leur chaîne d’approvisionnement. Au stade de la prévention du risque, la mise en place d’une procédure destinée à évaluer et suivre la conformité en interne des systèmes d’IA est un enjeux clé pour les entreprises. La mise en place de politiques internes destinées à encadrer l’utilisation de l’IA par les salariés, ou encore le contrôle systématique de toute nouvelle application introduite sur le système d’information de l’entreprise, afin d’éradiquer le « shadow AI » (autrement dit l’IA fantôme), sont des facteurs de diminution des risques. La mise en œuvre concrète des exigences réglementaires implique pour les entreprises de prendre en compte les recommandations produites par les régulateurs, sources d’informations précieuses pour anticiper les risques. En France, l’Agence nationale de la sécurité des systèmes d’information (Anssi) a publié le 29 avril 2024 un guide de recommandations de sécurité pour les systèmes d’IA générative (7). Ce guide propose une série de mesures pour sécuriser ces systèmes tout au long de leur cycle de vie, depuis l’entraînement jusqu’à la production. On y trouve ainsi des recommandations générales visant à intégrer la sécurité dès la conception et dans toutes les phases du projet de développement d’un système d’IA, mais également en phases d’entraînement, de déploiement et de production. L’Anssi recommande par exemple de prévoir des audits de sécurité – avant déploiement en production ou encore journaliser – de l’ensemble des traitements réalisés au sein du système d’IA. En février 2025, lors du Sommet de l’IA à Paris, l’Anssi a publié le guide intitulé « Développer la confiance dans l’IA à travers une approche par les risques cyber » (8), où elle élabore des bonnes pratiques pour un déploiement sécurisé des systèmes d’IA, donnant ainsi des orientations à destination des développeurs, des fournisseurs et des décideurs. Outre la mise en place d’un processus de veille technologique et réglementaire, elle recommande de procéder à un contrôle strict des chaînes d’approvisionnement en cartographiant les composants logiciels, en vérifiant la fiabilité des fournisseurs, et en protégeant les données d’entraînement contre l’empoisonnement.
En matière de protection des données personnelles, la Cnil exige de décliner les principes du RGPD aux usages de l’IA. Elle a publié le 7 février 2025 plusieurs recommandations pour la mise en place d’un système d’IA (9), en donnant des bonnes pratiques visant notamment à l’information des personnes concernées qui voient leurs données intégrées dans une base de données d’apprentissage. En outre, la Cnil invite les fournisseurs à anonymiser les données d’entraînement ou, à défaut de pouvoir le faire, à s’assurer que le modèle d’IA est anonyme à l’issu de son entraînement.

Adopter une approche security by design
Lors du Forum InCyber, début avril 2025 à Lille, plusieurs bonnes pratiques ont été mises en avant pour encadrer les risques liés à l’intelligence artificielle. Parmi celles-ci, l’importance de la collaboration entre les acteurs publics et privés a été soulignée pour renforcer la résilience numérique. Le forum a également insisté sur la nécessité d’adopter une approche security by design, intégrant des mécanismes de sécurité dès la conception des systèmes d’IA. Enfin, la formation continue des professionnels et la sensibilisation des utilisateurs ont été identifiées comme des leviers essentiels pour prévenir les cybermenaces et garantir une utilisation éthique et sécurisée de l’intelligence artificielle. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

Révolution du jeu vidéo : l’IA le crée en temps réel

En fait. Le 4 avril, Microsoft a mis en ligne une version du jeu vidéo « Quake 2 », dont le contenu est généré en temps réel par son modèle d’intelligence artificielle Muse, en fonction de l’évolution du joueur. Ce n’est pas le premier à s’engager dans cette révolution de la production « IA » de jeux vidéo.

En clair. Attention, chamboulement en vue dans le développement des jeux vidéo. L’IA générative de jeux vidéo en temps réel va déferler dans cette industrie du 10e Art. C’est notamment ce que promettent chacun de leur côté Microsoft, avec une version évolutive de « Quark 2 », et la start-up californienne Decart, avec son jeu « Oasis » aussi généré dynamiquement. Leur point commun réside dans le fait que c’est le modèle d’intelligence artificielle utilisé qui crée le contenu du jeu, en temps réel, en fonction des actions et des avancées du joueur dans le gameplay. L’utilisateur influence directement la création par l’IA des environnements vidéoludiques du jeu, lequel évolue en fonction de ses choix, offrant ainsi au gamer une expérience immersive et personnalisée hors du commun.
Dans une longue interview très remarquée et enregistrée le 19 février dernier (1), le PDG de Microsoft, Satya Nadella, a annoncé que sa console de jeux vidéo Xbox « all[ait] bientôt avoir un catalogue de jeu qui utiliseront ces modèles [d’IA comme Muse, ndlr] ». Le coup d’envoi a été donné le 7 avril par la firme de Redmond (Californie) avec la mise en ligne pour PC d’une version « IA » du jeu vidéo de tir à la première personne (FPS), lequel avait été développé (suite)
historiquement et publié en 1997 par la société de développement ID Software, rachetée en 2021 par Microsoft via l’achat de ZeniMax Media. Grâce au modèle d’IA générative Muse et le modèle Wham (World and Human Action Model), tous deux développés par Microsoft Research et hébergé par Copilot Labs (2), « Quark 2 » voit son gameplay, ses niveaux et ses histoires « développés » en temps réel par l’IA, en s’adaptant aux actions du joueur. « Whamm [version optimisée de Wham, ndlr] est capable de générer des images à plus de 10 images par seconde, ce qui permet une génération vidéo en temps réel. En revanche, Wham-1.6B [1,6 milliard de paramètres, ndlr] peut générer environ une image par seconde », explique Microsoft Research dans son blog (3).
Quant à la start-up Decart, elle propose une version « IA » gratuite du jeu de construction Minecraft, propriété de Microsoft via Mojang, grâce à son modèle Oasis (4) expérimental présenté dès octobre 2024. Google DeepMind a aussi présenté en août 2024 ses ambitions dans ce domaine avec son projet GameNGen (5), qui peu exécuter le jeu de tir « Doom » à plus de 20 images par seconde. @