Le modèle artist centric ne change pas grand-chose

En fait. Le 31 octobre, le musicien Denis Levaillant a appelé à « une réforme profonde du modèle économique du streaming » et a estimé que « le modèle “artist centric” ne changera pas grand-chose ». Il l’a dit dans un entretien au Bulletin des auteurs du Syndicat national des auteurs et des compositeurs (Snac).

En clair. La toute première répartition de la rémunération des musiciens et ayants droits selon le modèle dit « artist centric » est intervenue le 6 octobre, dans le cadre de l’accord passé en février 2025 entre la Sacem – Société des auteurs, compositeurs et éditeurs de musique – et Deezer, la plateforme française de streaming musical. La promesse du modèle artist centric est de pondérer la valeur des streams en fonction de différents critères, afin de permettre une répartition des droits plus équitable que le modèle historique dit market centric où chaque streama la même valeur sans distinction et où les royalties sont calculées au prorata des écoutes totales (1).
Les critères de l’artist centric, du moins dans l’accord SacemDeezer, sont notamment et a priori une meilleure valorisation des artistes « professionnels » (pas d’IA) qui atteignent 1.000 streams mensuels issus de 500 utilisateurs uniques (tous titres de l’artiste confondus), et une meilleure rémunération des streams dits « actifs » car – contrairement aux streams dits « passifs » – ils correspondent à une écoute obtenue par (suite) une recherche précise de titre ou d’album, ou par une playlist personnalisée. Mais pour cette première répartition des droits, portant sur le 1er semestre 2025, seules les écoutes payantes réalisées en France sont comptabilisées. « Des discussions sont en cours pour étendre ce modèle à d’autres territoires et à d’autres plateformes », indique la Sacem (2).
Mais pour le musicien Denis Levaillant, compositeur, pianiste et auteur, le compte n’y est pas : « Cet accord [Sacem-Deezer] ne s’attaque pas du tout au nœud du problème : la répartition aujourd’hui n’est pas égalitaire. Etant calculée au prorata global du nombre de streams, elle favorise les artistes les plus en vue. […] Et cela ne changera pas car le plafond défini de 1.000 streamsmensuels pour un titre avec 500 abonnés différents est extrêmement élevé et éliminera beaucoup de monde ».
Pour celui qui fut président de la Fédération de la composition Musique de création (FC-MC) de 2021 à 2024, « il semble donc bien que ce modèle “artist centric” va donner au final plus aux plus gros et moins aux petits, et ne changera pas grand-chose au matraquage des genres mainstream ». Denis Levaillant prône donc une réforme du streaming musical selon trois pistes : « la rémunération à la seconde (3), le prix unique (4), et la séparation du classique et de la pop (5) ». @

L’éclatement de la « bulle IA » que tout le monde croit voir venir mais qui tourne à l’arlésienne

Fin octobre, les Bourses dans le monde étaient au plus haut à la suite du réchauffement commercial entre la Chine et les Etats-Unis, grâce à un deal conclu entre Xi Jinping et Donald Trump – notamment sur les terres rares de la tech. Mais la « bulle IA » tarde encore à éclater.

Les Bourses et les indices boursiers s’en sont donnés à cœur-joie à partir du 24 octobre 2025 en atteignant pour plusieurs d’entre eux des records en clôture. Cette euphorie des investisseurs – bien qu’un recul boursier ait été constaté début novembre – est intervenue dans un climat commercial apaisé entre les Etats-Unis et d’autres pays dans le monde, Chine en tête. Donald Trump (photo de gauche) et Xi Jinping (photo de droite) faisant la pluie et le beau temps sur les affaires, l’accord commercial conclu le 30 octobre (1) entre les deux premières puissances mondiales, y compris sur les terres rares indispensables à l’industrie de la tech, a redonné du baume au cœur aux marchés.

Les terres rares gonflent la « bulle IA »
Comme l’Empire du Milieu est le numéro mondial des terres rares, qui ne sont finalement pas si rares mais qui sont difficiles à extraire et à purifier (minage + raffinage + traitement), elle détient – avec ses près de 70 % de la production mondiale – une carte-maîtresse dans les technologies (électroniques et numériques). Les terres rares sont cruciales pour les aimants puissants (disques durs, moteurs électriques, éoliennes, …), les écrans et smartphones, les composants électroniques et semi-conducteurs, les cellules solaires et l’innovation énergétique, ou encore les technologies militaires. Les terres rares et plus largement les métaux rares (2) constituent donc un enjeu géopolitique majeur en tant que « pétrole du XXIe siècle ». Or l’intelligence artificielle (IA) est devenue l’épicentre de la demande mondiale en terres rares justement.
Si les IA génératives n’ont pas besoin en tant que telles de terres rares, les systèmes informatiques sur lesquels les systèmes d’IA fonctionnent sont véritablement « terravores » – selon le néologisme adapté par Edition Multimédi@. Les GPU (Graphics Processing Unit), ces processeurs à très haute capacité de calculs parallèles, que l’on retrouve sur les supercalculateurs et les serveurs des data centers, intègrent des terres rares. Des composants périphériques en ont aussi besoin pour leurs performances thermique, optique et électrique, que cela soit pour les systèmes de refroidissement, les disques durs, les alimentations et les convertisseurs ou encore les amplificateurs optiques et les interconnexions. En conséquence, (suite) un accord trouvé entre la Chine (3) et les Etats-Unis (4) – avec un volet sur les terres rares – a de quoi redonner de l’optimisme aux Bourses et aux indices boursiers du monde entier. L’annonce du deal sino-américain avait été faite par le secrétaire américain au Trésor, Scott Bessent, dès le dimanche 26 octobre 2025 sur ABC News (5) et sur NBC News (6).
En menaçant la Chine de lui infliger des droits supplémentaires de 100 % à partir du 1er novembre si elle imposait des restrictions à l’exportations de terres rares et plus largement de minéraux rares, Donald Trump a obtenu gain de cause… pour l’instant. « Ils [les Chinois] vont retarder cela d’un an le temps de réexaminer tout cela », a indiqué Scott Bessent. Pour la première fois de son second mandat de président des Etats-Unis, Donald Trump a ainsi rencontré le 30 octobre le président chinois, Xi Jinping, dans la ville de Busan en Corée du Sud, en marge du sommet de coopération économique pour l’Asie-Pacifique (Apec (7)). L’accord (8) conclu par les deux plus puissants de ce monde gonfle encore un peu plus la « bulle IA », les deux pays étant engagés dans un bras de fer pour dominer le marché mondial de l’intelligence artificielle qui va s’imposer à tous les secteurs économiques de la planète. Les Etats-Unis ont ces dernières années limité l’accès des fabricants chinois aux semi-conducteurs de pointe américains (9), voire en bannissant du marché américain des entreprises chinoises telles que le géant Huawei (10). Mais la Chine entend prouver qu’elle peut acquérir une autonomie dans les micro-processeurs, jusque dans la réduction de leur gravure – de 7 nanomètres actuellement à 3 nanomètres dès 2026, selon les ambitions affichées de Huawei et Xiaomi.

La Chine veut devenir plus « intelligente »
Objectif de Pékin : rattraper son retard par rapport au taïwanais TSMC – géant mondial des puces – qui, selon DigiTimes, va produire en masse pour Apple et Nvidia des semi-conducteurs de seulement 2 nanomètres (11). La rencontre au sommet entre Trump et Jinping est intervenue une semaine après le quatrième plénum du 20e Comité central du Parti communiste (à Pékin du 20 au 23 octobre 2025), qui a mis « l’autonomie technologique » au cœur des priorités de la Chine. Cette nouvelle ambition est inscrite dans le 15e plan quinquennal (2026–2030), dont les grandes lignes ont été adoptées lors de cette session. Le communiqué officiel final publié par Pékin le 23 octobre (12) donne le ton : « L’indépendance et la puissance des sciences et technologies chinoises connaîtront une augmentation considérable. […] Il faut poursuivre l’édification d’une Chine numérique. […] Il convient de rendre plus indépendantes et plus fortes la recherche et l’innovation chinoises de haut niveau ». Lors de cette session, les dirigeants chinois ont souligné l’importance de renforcer l’autonomie technologique du pays, en particulier dans des domaines stratégiques tels que l’IA, les semiconducteurs et les technologies quantiques. L’armée chinoise est aussi priée de s’approprier « au plus vite » l’IA via « la fusion de la mécanisation, de l’informatisation et des technologies intelligentes ».

Bulle IA américaine et bulle IA chinoise
Aux Etats-Unis, la baisse des taux directeurs d’un quart de point – décidée le 29 octobre (13) par Jerome Powell, le président de la Fed (14) – avait été par ailleurs largement anticipée par les marchés. En diminuant de – 0,25 %, le taux des fonds fédéraux (Federal Funds Rate) – c’est-à-dire le taux d’intérêt auquel les banques américaines se prêtent de l’argent entre elles à très court terme – a un impact positif sur presque toute l’économie au travers des crédits immobiliers, des taux des cartes de crédit, ou encore des obligations d’Etat. Cette anticipation a ainsi contribué à favoriser les records des Bourses fin octobre.
Entre l’accord-cadre sino-américain incluant les terres rares et l’assouplissement de la politique monétaire étatsunienne, la bulle IA devrait en profiter aussi – technologiquement et financièrement. Car l’IA reste plus que jamais une affaire de gros sous : les infrastructures informatiques des centres de données sont dévoreuses de capitaux. A la question « Sommes-nous dans une phase où les investisseurs dans l’ensemble sont surexcités par l’IA ? » posée au PDG cofondateur d’OpenAI, Sam Altman (photo ci-dessus), par des médias américains parmi lesquels The Verge le 15 août 2025, celui-ci a répondu sans hésiter : « Mon opinion est oui. […] Lorsqu’une bulle se forme, les esprits brillants s’emballent à partir d’un noyau de vérité [une part de vérité, ndlr] ».
Le représentant de ChatGPT fait lui-même le rapprochement avec la « bulle Internet » (15) qui a éclaté en 2000, en mettant en garde contre les « financements à des valorisation aussi élevées » de start-up de l’IA : « Ce n’est pas un comportement rationnel. […] Quelqu’un va perdre une somme phénoménale d’argent. Nous ne savons pas qui » (16). C’est la première fois que Sam Altman évoquait ainsi la possibilité de l’éclatement de la bulle IA. Mais y at-il une bulle IA ou bien deux bulles IA : une bulle IA américaine et une bulle IA chinoise ? Aux Etats-Unis, la bulle IA s’est formée dans le sillage de la licorne (non cotée en Bourse) OpenAI valorisée jusqu’à 500 milliards de dollars et du fabricant de puces IA Nvidia (coté en Bourse) valorisé 4.741 milliards de dollars au 6 novembre (17). Le Wall Street Journal s’est demandé le 22 octobre si « la vague d’accords circulaires sur l’IA [était] une situation gagnant-gagnant ou le signe d’une bulle ? ». Pour le quotidien financier américain, les « Circular AI Deals » (18) – où les fabricants de puces et des Big Tech de l’informatique investissent dans des entreprises d’IA, comme Microsoft dans OpenAI ou Amazon dans Anthropic, pour que cellesci leur achètent leurs produits ou leur puissance de calcul – pourrait provoquer une réaction en chaîne aboutissant à l’éclatement de la bulle IA. La position dominante de Nvidia dans les processeurs graphiques GPU pour l’IA présente aussi un risque (19).
En Chine, la bulle IA s’est formée dans le sillage : du géant Alibaba (coté en Bourse) valorisé 404 milliards de dollars au 6 novembre (20), investissant des dizaines de milliards de dollars dans des puces IA/GPU via sa filiale T-Head (alias Pingtouge en chinois) ; de Cambricon Technologies, fabricant de puce IA/GPU parfois surnommé le « Nvidia chinois » et soutenu par Huawei et coté en Bourse avec une valorisation de 75 milliards de dollars (21) ; ou encore de la licorne (non cotée en Bourse) DeepSeek, valorisée de 3,4 milliards à… 150 milliards de dollars (selon les estimations incertaines), qui avait secoué la bulle IA étatsunienne en lançant la V3 open source de son IA générative low cost du même nom (22). Ces deux bulles IA – américaine et chinoise – risquent d’éclater à tout moment, successivement ou en même temps. OpenAI est le symbole de la bulle IA américaine : la licorne a levé un total de près de 58 milliards de dollars jusqu’en 2025 auprès de SoftBank, Microsoft, Nvidia, AMD ou encore Thrive Capital, entre autres, afin d’investir des sommes colossales pour faire fonctionner ses IA génératives (ChatGPT, Dall.E, Sora, …).

Quelle bulle IA va éclater la première ?
Mais l’entreprise semi-lucrative (23) de San Francisco perd toujours de l’argent : malgré ses 3.7 milliards de dollars de chiffre d’affaires en 2024 (près de 13 milliards attendus pour 2025), la licence de ChatGPT affiche une perte nette de 5 milliards de dollars en 2024 (9 milliards estimés en 2025). Son rival Anthropic ne fait guère mieux : 5 milliards de dollars de revenus pour autant de déficit. Rentables les IA génératives ? La bulle IA en Chine est moins développée que celle des Etats-Unis, mais l’autonomie technologique poursuivie par Xi Jinping – avec son 15e plan quinquennal (2026–2030) – devrait la renforcer. @

Charles de Laubier

Anne Le Hénanff, ministre de l’IA et du numérique

En fait. Le 12 octobre, Anne Le Hénanff, députée (Horizon) de la première circonscription du Morbihan (Bretagne), a été nommée ministre déléguée à l’Intelligence artificielle et au Numérique. La Bretonne remplace la Parisienne Clara Chappaz (Renaissance) qui était démissionnaire depuis le 5 octobre.

En clair. C’est l’une des trois Bretonnes du gouvernement « Lecornu 2 » constitué le dimanche 12 octobre. Anne Le Hénanff a remplacé Naïma Moutchou, laquelle avait succédé le 5 octobre à Clara Chappaz avant d’être démissionnaire dès le lendemain avec l’implosion de « Lecornu 1 » (le plus éphémère gouvernement de la Ve République, le Premier ministre démissionnant 27 jours après sa nomination par Emmanuel Macron). Alors que Naïma Moutchou avait le nouveau maroquin intitulé « ministre de la Transformation et de la Fonction publiques, de l’Intelligence artificielle et du Numérique », Anne Le Hénanff reprend, elle, celui de Clara Chappaz : « ministre déléguée chargée de l’Intelligence artificielle et du Numérique » (1). Point commun entre les deux députées Anne Le Hénanff et Naïma Moutchou : elles sont toutes les deux affiliées à l’Assemblée nationale au parti Horizon de l’ancien Premier ministre Edouard Philippe.
La nouvelle ministre était même jusqu’à présent co-porte-parole d’Horizon depuis un an et demi. Il n’y aura sans doute pas de passation de pouvoirs publique, mais Anne Le Hénanff – députée de la 1ère circonscription du Morbihan (Vannes) depuis juin 2022 – ne s’est pas privée de (suite) raconter par le menu, auprès de plusieurs médias (Ouest-France, France 3 Bretagne, …), les circonstances de sa nomination surprise : dimanche soir 12 octobre, au sortir d’un concert, le cabinet du Premier ministre l’appelle sur son mobile pour lui proposer le poste ; après réflexion et concertation avec son entourage, elle accepte en disant « oui » à Sébastien Lecornu qui l’appela à 21h (2).
Si la nouvelle ministre déléguée (3) de l’IA et du numérique (Anne Le Hénanff) dure plus longtemps que sa prédécesseure d’un jour (Naïma Moutchou), maintenant que le gouvernement « Lecornu 2 » a évité de justesse la censure le 16 octobre, elle peut rêver tenir un peu plus d’un an comme celle d’avant (Clara Chappaz). Ses faits d’armes comme députée : coauteur d’un rapport en 2023 sur le projet de loi « Régulation numérique » (SREN) et de deux autres en 2024 sur la cyberdéfense. Elle est depuis près d’un an, vice-présidente de la CSNP (4). Ses missions comme ministre : maintenir la position de la France sur l’IA, transformer l’administration publique, protéger les données des Français, garantir la souveraineté numérique du pays, protéger les mineurs et lutter contre le harcèlement en ligne. @

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

MrBeast (alias Jimmy Donaldson), n°1 mondial des youtubeurs, fait de l’ombre aux vidéastes locaux

Depuis que la filiale vidéo de Google a annoncé – lors de sa conférence « Made On YouTube », miseptembre – le déploiement mondial du doublage vocal automatisé par l’IA, les youtubeurs locaux craignent de voir le n°1 mondial américain MrBeast détourner leur public à son insatiable profit.

Déjà numéro un mondial des youtubeurs depuis près de trois ans, depuis qu’il a coiffé au poteau en novembre 2022 PewDiePie (alias le Suédois Felix Kjellberg), le tenant du titre à l’époque, le célèbre vidéaste MrBeast (alias l’Américain Jimmy Donaldson) va profiter à plein régime de la généralisation de la traduction automatique et du doublage par l’IA Gemini de Google – avec la nouvelle fonctionnalité de synchronisation des lèvres – pour accroître son influence partout dans tous les pays du monde.

Doublage IA et synchronisation labiale
La concurrence frontale avec les youtubeurs locaux est lancée. D’autant que MrBeast (photo de gauche) n’a pas attendu la conférence annuelle « Made On YouTube », le 16 septembre 2025, pour adopter l’audio multilingue. Ce qui lui a permis de recentrer toute son audience mondiale sur sa chaîne principale, l’amenant à abandonner progressivement toutes les déclinaisons locales: Beast Español, Beast Português, Beast Japanese, ou encore « MrBeast en français » qui affichait près de 1,8 million d’abonnés. Le n°1 des youtubeurs aux près d’un demi-milliard d’abonnés – 442 millions de followers, à début octobre 2025 – est même l’un des chouchous de la filiale vidéo de Google. Dès l’année 2022, il a été parmi les early-adopters de la traduction automatique des vidéos en plusieurs langues. Lorsque YouTube a demandé à un petit groupe de créateurs de tester sa nouvelle fonctionnalité polyglotte.
MrBeast commence alors par (suite) doubler ses vidéos les plus populaires en plus d’une dizaine de langues, ce qui n’a pas manqué d’attirer de nouveaux « téléspectateurs » du monde entier – et sur sa chaîne principale (1) qui existe depuis février 2012. « Les créateurs qui testent des vidéos doublées multilingues ont constaté que plus de 15 % de leur temps de visionnage provenait de vues dans la langue secondaire de la vidéo », avait alors relevé Ritz Campbell, chef de produit chez YouTube (2), celui qui a supervisé le développement du « YouTube Auto-Dubbing ». Le 10 septembre 2025, il a précisé que ce taux était passé à 25 % des temps de visionnage : « Certains de nos créateurs les plus connus, comme MrBeast et Mark Rober, touchent maintenant des millions de téléspectateurs supplémentaires dans de nouveaux coins du monde, […] avec une moyenne de plus de 30 langues par vidéo » (3). MrBeast accélère donc la cadence avec l’IA Gemini de Google, en test pour la synchronisation labiale. Cette innovation pour les doublages linguistiques, mise au point par Google DeepMind et Google Translate, permet sur la vidéo d’aligner visuellement les lèvres d’un orateur avec la langue doublée afin de « rendre les doublages encore plus précis, expressifs et naturels » (4). Cette fonctionnalité « lip-syncing » dans le doublage vidéo automatique (auto-dubbing) est toujours en test, mais depuis le Made On YouTube 2025 la version bêta est ouverte à plus de créateurs. En gestation depuis l’an dernier, cette technique dopée à l’IA permet de « restituer dans le doublage IA le ton et les intonations, ainsi que l’ambiance de l’environnement du créateur », avait indiqué Johanna Voolich (photo de droite), la Chief Product Officer de YouTube à Mountain View.
Jimmy Donaldson, ce jeune homme de 27 ans, est aux Etats-Unis ce que Lucas Hauchard – Squeezie et ses presque 20 millions de followers – est à la France (5). MrBeast est un boute-en-train de la vidéo virale et un « homme-sandwich » du Web, cumulant à ce jour – et au bout de plus de treize ans d’existence – près de 100 milliards de vues (96,5 milliards de vues au 03-10-25). Il a déclaré pour la première fois en février 2025 être milliardaire : « Je vaux 1 milliard de dollars ! », a-t-il confié dans un podcast (6). Jimmy Donaldson gagnerait, par mois, environ 7 millions de dollars. MrBeast est entré dans le Guinness des records en juin 2024 pour avoir atteint le plus grand nombre d’abonnés sur YouTube (7). Depuis, son record d’audience a bondi de 63,5 %. D’après le classement établi par HypeAuditor, la chaîne MrBeast est en tête sur YouTube au niveau mondial (8) – toutes catégories confondues (créateurs individuels et entités commerciales), tandis que celle de PewDiePie (9) a été reléguée à la douzième position avec 110 millions de followers.

Auto-traduction et conquête du monde
Sur la deuxième marche du podium mondial, il y a la chaîne T-Series liée à Bollywood et diffusée par la société indienne Super Cassettes Industries, et sur la troisième marche la chaîne Cocomelon, propriété de Moonbug Entertainment, société britannique spécialisée dans les contenus pour enfants. Le doublage IA va rebattre les cartes des audiences sur YouTube. @

Charles de Laubier