Artistes fantômes, fraudes à la diffusion : l’IA met le bazar dans le streaming musical mondial

Les « fake streams » (faux clics) et les « fake artists » (faux artistes) ne datent pas d’hier dans le streaming musical, mais l’intelligence artificielle accroît le phénomène de façon exponentielle. Pour faire face au fléau, l’industrie musicale compte sur les plateformes et la justice.

La manipulation de la musique en ligne, dans le but de percevoir des royalties de manière plus ou moins frauduleuse, repend de l’ampleur depuis que l’IA s’est invitée dans l’industrie musicale. Cela impacterait environ 10 % des streams au niveau mondial, selon certaines sources (1). Si l’on considère les 20 milliards d’euros de chiffre d’affaires du streaming musical réalisés en 2024, d’après la Fédération internationale de l’industrie phonographique (IFPI), la fraude représenterait quelque 2 milliards d’euros l’an dernier.

Phénomène du streaming artificiel
« La musique est confrontée à la menace croissante de la manipulation du streaming, où des acteurs malveillants volent de l’argent qui devrait aller aux artistes légitimes en générant un jeu artificiel de morceaux qu’ils ont téléchargés sur les services musicaux. C’est du vol. L’utilisation d’outils d’IA générative par des manipulateurs de flux a considérablement exacerbé le problème. L’IA permet de générer très rapidement et en grand volume des images d’artistes, des pochettes et des pistes, ce qui permet une manipulation plus facile et à grande échelle », fustige l’IFPI. « Les maisons de disques continueront à intenter des actions en justice contre les individus derrière les sites qui vendent des morceaux artificiels, mais l’impact réel peut être obtenu par le secteur en se regroupant pour prévenir la fraude », a prévenu la fédération de l’industrie musicale dans son dernier rapport annuel publié en mars dernier (2).
Aussi, quelle n’a pas été sa satisfaction le 17 juillet 2025 de voir un tribunal de São Paulo, au Brésil, rendre la première décision de justice dans le cadre de l’« Operation Authentica », initiative de l’IFPI pour cibler les services dans le monde fournissant de fausses interactions en ligne. La société Seguidores Marketing Digital, qui a fait appel de la décision, a été (suite)

Cyberattaques et IA fantômes : comment encadrer et gérer les risques qui menacent l’entreprise

L’intelligence artificielle générative est un moteur d’accélération des risques pour les entreprises. La révolution de l’IA peut alors tourner au cauchemar. Mais il n’y a pas de fatalité, pour peu que les dirigeants suivent les règlements, les recommandations et les guides de bonnes pratiques.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

L’intelligence artificielle générative transforme en profondeur les paradigmes de la cybersécurité. En s’appuyant sur des modèles entraînés à partir de volumes de données considérables, cette technologie offre des applications variées dans la défense contre les menaces ou la gestion des attaques cyber. Mais l’IA générative permet également le développement d’usages malveillants, donnant ainsi naissance à une nouvelle vague de cybermenaces. Dans ce contexte, les entreprises doivent concilier innovation et sécurité, tout en respectant un cadre réglementaire européen en pleine évolution.

Cybermenaces externes et internes
Grâce à ses capacités d’automatisation de traitement de données à grande échelle et d’apprentissage autonome, l’IA générative permet aujourd’hui de concevoir des attaques plus efficaces, ciblées et difficile à détecter. Dans le premier rapport international sur la sécurité de l’intelligence artificielle, intitulé « International AI Safety Report » (1) et publié en janvier 2025, les experts soulignent que les menaces cybernétiques se renforcent du fait que l’IA à usage général est favorisée par une exécution rapide, simultanée et à grande échelle d’opérations, tout en abaissant les coûts et les obstacles techniques. Parmi les pratiques, le phishing (hameçonnage) ne cesse de gagner en crédibilité, l’IA permettant de générer de façon automatique tous types de contenus, tels que des deepfakes (hypertrucages) personnalisés.
Les virus polymorphes sont capables de muter leur signature pour échapper aux détections. Ils ont la capacité de modifier leur empreinte numérique pour (suite)