Cyberattaques et IA fantômes : comment encadrer et gérer les risques qui menacent l’entreprise

L’intelligence artificielle générative est un moteur d’accélération des risques pour les entreprises. La révolution de l’IA peut alors tourner au cauchemar. Mais il n’y a pas de fatalité, pour peu que les dirigeants suivent les règlements, les recommandations et les guides de bonnes pratiques.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

L’intelligence artificielle générative transforme en profondeur les paradigmes de la cybersécurité. En s’appuyant sur des modèles entraînés à partir de volumes de données considérables, cette technologie offre des applications variées dans la défense contre les menaces ou la gestion des attaques cyber. Mais l’IA générative permet également le développement d’usages malveillants, donnant ainsi naissance à une nouvelle vague de cybermenaces. Dans ce contexte, les entreprises doivent concilier innovation et sécurité, tout en respectant un cadre réglementaire européen en pleine évolution.

Cybermenaces externes et internes
Grâce à ses capacités d’automatisation de traitement de données à grande échelle et d’apprentissage autonome, l’IA générative permet aujourd’hui de concevoir des attaques plus efficaces, ciblées et difficile à détecter. Dans le premier rapport international sur la sécurité de l’intelligence artificielle, intitulé « International AI Safety Report » (1) et publié en janvier 2025, les experts soulignent que les menaces cybernétiques se renforcent du fait que l’IA à usage général est favorisée par une exécution rapide, simultanée et à grande échelle d’opérations, tout en abaissant les coûts et les obstacles techniques. Parmi les pratiques, le phishing (hameçonnage) ne cesse de gagner en crédibilité, l’IA permettant de générer de façon automatique tous types de contenus, tels que des deepfakes (hypertrucages) personnalisés.
Les virus polymorphes sont capables de muter leur signature pour échapper aux détections. Ils ont la capacité de modifier leur empreinte numérique pour (suite)

Révolution du jeu vidéo : l’IA le crée en temps réel

En fait. Le 4 avril, Microsoft a mis en ligne une version du jeu vidéo « Quake 2 », dont le contenu est généré en temps réel par son modèle d’intelligence artificielle Muse, en fonction de l’évolution du joueur. Ce n’est pas le premier à s’engager dans cette révolution de la production « IA » de jeux vidéo.

En clair. Attention, chamboulement en vue dans le développement des jeux vidéo. L’IA générative de jeux vidéo en temps réel va déferler dans cette industrie du 10e Art. C’est notamment ce que promettent chacun de leur côté Microsoft, avec une version évolutive de « Quark 2 », et la start-up californienne Decart, avec son jeu « Oasis » aussi généré dynamiquement. Leur point commun réside dans le fait que c’est le modèle d’intelligence artificielle utilisé qui crée le contenu du jeu, en temps réel, en fonction des actions et des avancées du joueur dans le gameplay. L’utilisateur influence directement la création par l’IA des environnements vidéoludiques du jeu, lequel évolue en fonction de ses choix, offrant ainsi au gamer une expérience immersive et personnalisée hors du commun.
Dans une longue interview très remarquée et enregistrée le 19 février dernier (1), le PDG de Microsoft, Satya Nadella, a annoncé que sa console de jeux vidéo Xbox « all[ait] bientôt avoir un catalogue de jeu qui utiliseront ces modèles [d’IA comme Muse, ndlr] ». Le coup d’envoi a été donné le 7 avril par la firme de Redmond (Californie) avec la mise en ligne pour PC d’une version « IA » du jeu vidéo de tir à la première personne (FPS), lequel avait été développé (suite)

Les livres générés par de l’IA bousculent les maisons d’édition traditionnelles du monde entier

Alors que le Syndicat national de l’édition (SNE) – qui regroupe les majors françaises du livre parmi plus de 700 membres – organise le 42e Festival du Livre de Paris (12-13 avril), les IA génératives s’invitent parmi les « auteurs » avec des ouvrages dont elles ont écrit tout ou partie. Disruptif.

Pendant que l’industrie du livre fait son festival à Paris, l’intelligence artificielle vient jouer les trouble-fête en s’immisçant de plus en plus dans le monde de l’édition. Une nouvelle génération d’éditeurs, férus de technologies, s’apprêtent à disrupter la production de livres en accélérant leur mise sur le marché grâce notamment à l’IA générative pour raccourcir le temps de l’écriture et les éditer le plus rapidement possible auprès des lecteurs.

L’IA édite un livre en quelques jours
« Le monde de l’édition a peu changé depuis l’époque de Gutenberg et appelle à la transformation », prévient la startup américaine Spines (ex-BooxAI), cofondée en 2021 par l’Israélien Yehuda Niv (photo de gauche). Spines est une plateforme d’édition basée sur l’intelligence artificielle, qui propose aux auteurs « un moyen facile de publier, distribuer et commercialiser leurs livres, le tout en un seul endroit, en seulement 8 jours, du manuscrit à un titre publié, y compris la relecture, le formatage, la conception de la couverture, la distribution et le marketing sur tous les principaux canaux et plateformes ». Une semaine ! Là où les maisons traditionnelles mettent des mois avant de publier un livre. Yehuda Niv, PDG de la startup basée en Floride (1), et ses équipes veulent « réinventer le futur de l’édition ». « Nous voulons publier jusqu’à 8.000 livres en 2025. L’objectif est d’aider 1 million d’auteurs à publier leurs livres », avait déclaré Yehuda Niv, en novembre dernier à The Bookseller (2).
La plateforme Spines revendique (au 11 avril 2025) plus de (suite)

Micro-ciblage en Europe : état des lieux, sept ans après le scandale « Cambridge Analytica »

Depuis le scandale « Cambridge Analytica » il y a sept ans, dont Facebook est à l’origine et qui a bouleversé notre perception du numérique, l’Union européenne s’est constituée un arsenal réglementaire unique au monde, encadrant le micro-ciblage et la transparence des publicités politiques.

Par Jade Griffaton, avocate counsel, Milestone Avocats

En 2018, le monde découvrait avec stupeur que Facebook avait permis la collecte illégale de données personnelles de plus de 87 millions d’utilisateurs par la société britannique Cambridge Analytica (1). Ces données, minutieusement exploitées entre 2014 et 2015, avaient servi à influencer les électeurs lors de scrutins majeurs, notamment la présidentielle américaine de 2016 et le référendum sur le Brexit de la même année. Ce scandale retentissant a brutalement mis en lumière les dangers considérables que représente le micro-ciblage politique pour l’intégrité des processus démocratiques.

Techniques de persuasion psychologique
Sept ans après cette affaire aux répercussions mondiales, l’Europe a considérablement renforcé son arsenal juridique concernant l’encadrement des publicités politiques et la protection des citoyens contre ces pratiques particulièrement invasives. Le micro-ciblage constitue une méthode de publicité numérique sophistiquée qui exploite méthodiquement les données personnelles pour identifier avec précision les intérêts, les préoccupations et les vulnérabilités d’individus ou de groupes spécifiques. Cette identification minutieuse poursuit un objectif précis : influencer délibérément leurs comportements et leurs opinions politiques par des messages personnalisés.
Contrairement au profilage publicitaire classique, le microciblage politique présente des caractéristiques particulièrement préoccupantes pour nos démocraties. Il transcende la simple identification des personnes en croisant de multiples sources de données pour en déduire des informations particulièrement sensibles telles que les opinions politiques latentes, les convictions religieuses ou l’orientation sexuelle des individus. Cette technique permet (suite)

Impacts environnementaux : le numérique aggrave

En fait. Le 10 février, l’Arcep a publié sur son site le livret « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » organisé le 7. Le 6, une tribune dans Le Monde alertait sur « le désastre écologique » qu’accélère l’IA. Le 4, Green IT a remesuré l’impact du numérique.

En clair. Pendant que le président de la République était le maître de cérémonie du « Sommet pour l’action sur l’IA » qu’il organisait au Grand-Palais à Paris du 6 au 11 février (dont les deux derniers jours en rencontres diplomatiques), pas moins de neuf institutions publiques et universitaires – dont l’Arcep et l’Ademe (1) – chapeautaient, elles, un « Tribunal pour les générations futures » sur les enjeux numériques et environnementaux. A l’initiative de l’éditeur Usbek & Rica, cette conférence « procès » (dixit ses organisateurs) s’est tenue le 7 février à La Sorbonne à Paris pour juger de la question « Y a-t-il une IA pour sauver la planète ? ».
Ainsi, d’un côté, il y avait les annonces à très gros budget faites le 9 février par Emmanuel Macron : 109 milliards d’euros pour l’IA en France sur cinq ans, avec de nouveaux data centers à construire sur 35 sites identifiés, alors que l’Hexagone compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). A ces 109 milliards français pour l’IA sont venus s’ajouter (suite)