La 6G n’attend plus que sa feuille de route 2030

En fait. Le 20 juin, la Commission européenne et le Haut représentant de la diplomatie de l’UE ont présenté ensemble la « stratégie européenne de sécurité économique ». Parmi les technologies à promouvoir pour préserver la « souveraineté » européenne : la 6G, face à la Chine qui n’est pas mentionnée.

En clair. Ursula von der Leyen, présidente de la Commission européenne, et Josep Borrell, chef de la diplomatie de l’Union européenne (UE) ont présenté le 20 juin un document commun intitulé « Stratégie européenne de sécurité économique » afin de « minimiser les risques (…) dans le contexte de tensions géopolitiques accrues et de changements technologiques accélérés » et de « promouvoir son avantage technologique dans des secteurs critiques ». Parmi les technologies à promouvoir, le document de 17 pages (1) mentionne notamment la 6G aux côtés de l’informatique quantique (quantum), des semi-conducteurs (chips) et de l’intelligence artificielle (IA).
La Chine n’est pas citée dans ce document, mais le spectre de Pékin plane. En revanche, dans son discours le 20 juin portant sur cette « sécurité économique » de l’Europe, la vice-présidente Margrethe Vestager a explicitement visé la Chine et ses deux équipementiers télécoms mondiaux, Huawei et ZTE (2). Et ce, en rappelant que la Commission européenne a, le 15 juin, fortement incité les Etats membres qui ne l’ont pas déjà fait – comme l’Allemagne voire la France – de ne plus recourir aux technologies 5G de Huawei et ZTE, les deux chinois étant cités nommément par le commissaire européen au Marché intérieur, Thierry Breton (3). Il va sans dire que la 6G est concernée par ce bannissement initié par les Etats-Unis, lesquels font pression sur les pays de l’UE et de l’OTAN pour faire de même. Pour se défendre de tomber dans le protectionnisme, la stratégie européenne de sécurité économique veut aller de pair avec « la garantie que l’Union européenne continue de bénéficier d’une économie ouverte ». La Finlande, elle, a signé le 2 juin avec les Etats-Unis une déclaration commune de « coopération dans recherche et développement de la 6G », sans que l’équipementier finlandais Nokia ne soit mentionné dans le joint statement (4). Nokia comme le suédois Ericsson profiteront de l’éviction politique de leur deux plus grands rivaux chinois.
Reste à savoir si la 6G aura des fréquences harmonisées dans l’ensemble des Vingt-sept. Lors de la 18e conférence européenne sur le spectre, qui s’est tenue les 6 et 7 juin derniers à Bruxelles et à laquelle participait l’Agence nationale de fréquences (ANFR) pour la France, un consensus s’est dégagé sur « la nécessité d’une feuille de route claire sur le spectre pour la 6G à l’horizon 2030 » (5). A suivre. @

La peur envers les intelligences artificielles de type ChatGPT tourne à la psychose irrationnelle

Depuis la pétition signée le 29 mars 2023 par Elon Musk et des experts demandant un moratoire sur le développement des « cerveaux numériques » qui, selon eux, présentent des « risques majeurs pour l’humanité », les craintes se le disputent aux fantasmes quant à l’avenir des « ChatGPT ».

A les entendre ces Cassandres et Nostradamus de ce début du XXIe siècle, « l’extinction de l’humanité » serait pour bientôt. La fin des temps arriverait aussi rapidement que se développent les intelligences artificielles à la ChatGPT, lesquelles sont l’objet de toutes leurs angoisses existentielles. Si l’Apocalypse relève de l’eschatologie religieuse, la « ChatGPTéisation » annoncerait, elle, l’hécatombe de l’être humain. Ce tsunami numérique des IA, à l’apprentissage fulgurant, provoquerait la fin du monde.

L’Homo sapiens supplanté par l’IA sapiens
Les tribunes et déclarations de ces craintifs se suivent et se ressemblent : il faudrait pour les uns instaurer « un moratoire » face aux « risques majeurs pour l’humanité » que constitueraient les IA concurrentielles pour l’homme ; il est temps pour les autres de « prendre au sérieux certains des risques les plus graves de l’IA avancée » menaçant l’espèce humaine d’« extinction ». Les peurs que suscitent les ChatGPT, Midjourney et autres Bard, ainsi que toutes les autres IA surhumaines qui les supplanteront, virent aux fantasmes voire à l’hystérie collective. « L’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale, parallèlement à d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires », clament des dizaines de signataires chercheurs en intelligence artificielle (AI Scientists), professeurs d’universités et personnalités, dont Samuel (Sam) Altman (photo), le cofondateur avec Elon Musk de la start-up OpenAI qui a développé ChatGPT (générateur de textes) et de Dall-E (générateur d’images). Ce sont les deux IA les plus en vue depuis leur lancement respectif fin novembre 2022 et début 2021.
Sam Altman, qui a fait part le 17 mai au Sénat américain de sa peur de voir cette « superintelligence » provoquer de « graves dommages au monde », serait-il devenu malgré lui le pompier-pyromane en chef des IA générative ? La courte déclaration mise en ligne le 30 mai dernier sur le site du Center for AI Safety (1), une ONG américaine dédiée aux « risques IA », est aussi signée par Bill Gates (Gates Ventures) ou encore Grimes (célèbre musicienne). Il y a même le Canadien Geoffrey Hinton (75 ans), professeur émérite d’informatique et chercheur, parfois surnommé le parrain voire le « Dieu le Père » (Godfather)de l’IA et du Deep Learning (apprentissage profond dont se nourrissent les intelligences artificiels). Il s’est distingué le 1er mai dernier en annonçant qu’il quittait Google « pour pouvoir parler des dangers de l’IA ». Et critiquer son ancien employeur dans ce domaine comme l’a suggéré le New York Times (2) ? Que nenni : « Sans considérer comment cela affecte Google. Google a agi de façon très responsable », a-t-il rectifié dans un tweet (3). Geoffrey Hinton, qui aujourd’hui rejoint le cœur de ceux qui parlent de « profonds risques pour la société et l’humanité », a travaillé pendant près d’un demi-siècle sur l’IA générative appliquée aux chatbots, ces robots conversationnels (4) qui terrifient un nombre croissant d’humains. Au risque de conflits d’intérêts, il avait annoncé en mars 2013 – lorsque la firme de Mountain View a racheté son entreprise DNNresearch (5) – qu’il allait « poursuivre [s]es recherches à Toronto et, en même temps, aider Google à appliquer les nouveaux développements en apprentissage profond pour créer des systèmes qui aident les gens ». Il n’avait alors émis à l’époque aucune réserve sur ses travaux…
Elon Musk, pourtant moins frileux dans d’autres domaines industriels où le zéro risque n’existe pas, et qui plus est un des cofondateurs d’OpenAI (d’où il s’est retiré en 2018), a été l’un des milliers de cosignataires de la tribune « AI Pause » (6) parue le 22 mars 2023. Ce texte lançait des cris d’orfraie en disant stop : « Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable et inclure tous les acteurs-clés. Si une telle pause ne peut être mise en œuvre rapidement, les gouvernements devraient intervenir et instituer un moratoire ». Parmi les plus de 31.800 autres signataires : le chercheur français Joseph Sifakis, prix Turing de l’informatique 2007, pour qui « la technologie va trop vite » (7). Sam Altman, lui, n’en est pas signataire…

Réguler, oui ; arrêter l’IA, non
Le patron d’OpenAI, financé à coup de milliards par Microsoft, appelle les Etats à réguler ces IA superintelligentes : pour mieux freiner ses concurrents (comme Google avec Bard) et conforter la position dominante de ChatGPT sur ce tout naissant marché ? Après le Sénat américain le 17 mai, Sam Altman a rencontré le 23 mai Emmanuel Macron (8), puis le lendemain il a menacé de Londres de fermer ChatGPT en Europe si son futur AI Act était trop contraignant ! Avant de se dédire face au courroux du commissaire européen Thierry Breton l’accusant le 25 mai (9) de « chantage ». @

Charles de Laubier

Influenceurs : pris entre le marteau et l’enclume

En fait. Le 1er juin, le Sénat a adopté à l’unanimité la proposition de loi « Anti-arnaques et anti-dérives des influenceurs », comme l’avait fait la veille l’Assemblée nationale dans la foulée d’un accord en commission mixte paritaire. Avant même sa promulgation, la DGCCRF épingle les mauvais joueurs.

En clair. La promulgation de la loi « visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux » n’est que pure formalité. La proposition de loi transpartisane a été adoptée les 31 mai et le 1er juin derniers par respectivement l’Assemblée nationale et le Sénat. Et ce, après un accord trouvé le 25 mai en commission mixte paritaire (CMP) entre sénateurs et députés. Portée par les députés Arthur Delaporte (Nupes) et Stéphane Vojetta (Renaissance), la loi « Influenceurs » a l’encre à peine sèche que la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), basée à Bercy (Bruno Le Maire), a dégainé le 2 juin des sanctions « name and shame » (nommer et blâmer) à l’encontre de six influenceurs (1). Trois sont épinglés pour « pratiques commerciales trompeuses » et trois autres pour non-divulgation de « partenariat commercial rémunéré » (pub clandestine).
Ils sont tenus de publier sur leur profil en ligne, et durant 30 jours, leur condamnation. Le 3 mai, la DGCCRF avait indiqué avoir « contrôlé » 50 influenceurs au cours du premier trimestre. Des injonctions et des procès-verbaux pénaux pleuvent. « Bruno Le Maire et la DGCCRF rendront publiques les mesures prises à l’encontre de certains influenceurs dans une optique de sensibilisation aux enjeux de loyauté, et dans le respect des procédures du code de la consommation », avait prévenu Bercy (2). La loi « Influenceurs », elle, renforce les pouvoirs de la DGCCRF avec la création d’« une brigade d’influence commerciale constituée dans un premier temps de 15 agents » (temps plein), opérationnelle en septembre prochain. Ils « surveilleront » les réseaux sociaux, et répondront aux « signalements » de SignalConso (3).
La brigade sanctionnera les influenceurs coupables, fermera leurs comptes, voire les déférera devant un juge. La loi officialise aussi un « guide de bonne conduite » pour les influenceurs, déjà disponible avec un édito de Bruno Le Maire (4), et crée des « Assises de l’influence responsable » qui auront lieu tous les ans à Bercy. Les photos et vidéos retouchées ou produite par de l’IA seront à indiquer. La promotion d’actes de santé, de chirurgie esthétique ou d’animaux sauvages est interdite. Tandis que les influenceurs installés à l’étranger (Dubaï. Bahamas, Ile Maurice, …) doivent « nommer un représentant légal en France ». @

Sous pression de ChatGPT et frénétiquement, Google multiplie les produits d’intelligence artificielle

L’édition 2023 de la conférence des développeurs Google I/O, qui s’est tenue le 10 mai, a montré pour la première fois de l’histoire de la filiale d’Alphabet, créée il y a 25 ans, que l’IA est désormais devenue sa priorité numéro une. L’enjeu est de taille : ne pas se faire « ChatGPTéiser ».

Le 2 juin à l’assemblée générale annuelle des actionnaires d’Alphabet, la maison mère de Google, l’intelligence artificielle (IA) sera dans toutes les têtes. Ce rendez-vous entièrement virtualisé (1) devrait entériner la nouvelle stratégie de Google plus que jamais tournée vers l’IA. Le temps presse car la firme de Mountain View (Californie) ne mène plus la danse sur le Web, depuis que la start-up OpenAI a lancé fin novembre 2022 son IA générative ChatGPT, allant même jusqu’à déstabiliser le numéro un des moteurs de recherche.

Alphabet met de l’IA à tous les étages
Pour la première fois depuis sa création il y a 25 ans par Larry Page et Sergey Brin, « Google Search » se sent menacé. Audelà de sa réplique à ChatGPT avec sa propre IA générative, Bard, le groupe Alphabet dirigé par Sundar Pichai met les bouchées doubles dans l’IA. Jamais la conférence des développeurs Google I/O (2), dont c’était la 15e édition annuelle depuis son lancement en 2008 (en tenant compte de son annulation en 2020 pour cause de pandémie), n’a été autant tournée vers l’intelligence artificielle. Le système d’exploitation mobile Android, les smartphones Pixel et autres outils de l’écosystème Google sont passés au second plan (3).
L’année 2023 est une étape historique pour la filiale d’Alphabet qui a entrepris de généraliser l’IA partout où cela peut être utile. « L’IA est déjà dans de nombreux produits des millions (et dans certains cas des milliards) de personnes utilisent déjà comme Google Maps, Google Translate, Google Lens et plus encore. Et maintenant, nous apportons l’intelligence artificielle pour aider les gens à s’enflammer et à faire preuve de créativité avec Bard, à augmenter leur productivité avec les outils Workspace et à révolutionner la façon dont ils accèdent aux connaissances avec Search Generative Experience », a expliqué James Manyika (photo), vice-président chez Alphabet et Google, en charge des technologies et de la société ainsi que de Google Research et de Google Labs. L’IA s’est invitée dans la plupart des annonces faites aux développeurs « I/O », comme l’illustre un compte-rendu mis en ligne (4).
Quant au chatbot intelligent Bard, qui fut lancé dans la précipitation le 6 février dernier d’abord auprès d’happy few testeurs pour engager un bras de fer avec ChatGPT cornaqué par Microsoft (5), il est appelé à évoluer pour tenter de s’imposer. « Plus tard cette année, Data Commons – un système qui organise des données provenant de centaines de sources pour éclairer les approches des grands défis sociétaux, de la durabilité aux soins de santé, en passant par l’emploi et l’économie dans de nombreux pays – sera accessible par l’intermédiaire de Bard, ce qui le rendra encore plus utile », a aussi annoncé James Manyika. Au-delà de Bard, l’IA sera mise à contribution par Alphabet pour faire face aux changements climatiques et réduire les émissions de carbone, pour améliorer les soins de santé, y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. « Nous avons récemment annoncé un nouveau grand modèle linguistique qui pourrait être un outil utile pour les cliniciens : Med-PaLM », cite en exemple Google.
L’IA va aussi de plus en plus aider les scientifiques dans de nombreux domaines, comme la physique, la science des matériaux et la santé, à l’instar du programme AlphaFold de Google DeepMind pour prédire avec précision la forme 3D de 200 millions de protéines (macronutriments essentiels au bon fonctionnement de l’organisme). L’IA va contribuer également à rendre l’information mondiale encore plus accessible à tous et permettre à chacun d’évaluer l’information en ligne et de détecter la mésinformation. « Dans les prochains mois, a indiqué James Manyika, nous allons ajouter un nouvel outil, “About this image” (6) dans Google Search, qui fournira un contexte utile, comme le moment et l’endroit où des images similaires peuvent être apparues pour la première fois et où elles ont été vues en ligne, y compris les actualités, la vérification des faits et les sites sociaux. Plus tard cette année, cet outil sera disponible dans Chrome et Google Lens ». L’IA est aussi au cœur d’Universal Translator, un nouveau service expérimental du géant du Net. Il s’agit d’un outil intelligent de doublage vidéo qui traduit la voix d’un orateur et fait correspondre ses mouvements de lèvres.

Concevoir les IA avec des garde-fous
Selon Google, Universal Translator présente un énorme potentiel pour accroître la compréhension de l’apprentissage. Mais cela présente des risques de détournement, des « tensions » comme les désigne James Manyika : « Nous avons conçu le service avec des garde-fous pour limiter l’utilisation abusive et le rendre accessible seulement aux partenaires autorisés. Nous appliquons nos principes d’IA (7) à nos produits », assure-t-il. L’IA responsable (8) suppose aussi des outils de détection (« classificateurs ») pour débusquer les deepfake (9) et les supercheries. Et ce n’est que le début d’une nouvelle ère. @

Charles de Laubier

Musique : la «taxe streaming» pourrait être adoptée dans le projet de loi de finances 2024

Bien qu’elle ne fasse pas l’unanimité au sein de la filière musicale (les producteurs sont divisés), la « taxe streaming » que prône le rapport Bargeton pourrait être adoptée à l’automne dans le projet de loi de finances 2024 alors qu’elle avait été rejetée dans le projet de loi de finances 2023.

La « taxe streaming », à savoir une contribution des plateformes de streaming (Spotify, Deezer, Apple Music,…) au financement du Centre national de la musique (CNM) telle que préconisée par le rapport Bargeton, fissure la filière musicale. D’un côté, l’Union des producteurs phonographiques français indépendants (UPFI), regroupant des labels et producteurs indépendants, y est favorable avec des organisations du spectacle vivant. De l’autre, le Syndicat national de l’édition phonographique (Snep), représentant notamment les majors Universal Music, Sony Music et Warner Music, la fustige.

Financer le CNM, comme le CNC et le CNL
Ce projet de « taxe streaming » à 1,75 % serait à la musique enregistrée le pendant de la « taxe billetterie » à 1,75 % du spectacle vivant. Selon le rapport du sénateur Julien Bargeton (majorité relative présidentielle), lequel avait été missionné par la Première ministre Elisabeth Borne et la ministre de la Culture, Rima Abdul Malak (photo), l’instauration de ce prélèvement « sur les revenus » de la consommation de musique en flux continu (streaming), aurait le mérite de mettre un terme à « l’asymétrie de financement entre spectacle vivant et musique enregistrée qu’on observe actuellement pour le financement du CNM ». Un an après avoir échoué à être adoptée dans le projet de loi de finances 2023, où trois amendements avaient été rejetés (1), la « taxe streaming » pourrait bien être adoptée à l’automne prochain dans le projet de loi de finances 2024.
Actuellement, la « taxe billetterie », prélevé sur les revenus des entrées aux spectacles de variétés représente environ 35 millions d’euros par an. Selon les calculs de Edition Multimédi@, la « taxe streaming » aurait pu rapporter 9,7 millions d’euros au titre de l’année 2022 où le streaming a généré en France 556,9 millions de chiffre d’affaires (2). Cette somme de près de 10 millions d’euros sont à comparer aux 20 millions d’euros de « rendement annuel » qu’attend le rapporteur Julien Bargeton (3) pour les prochaines années – anticipant ainsi une forte croissance du streaming musical par rapport à l’an dernier. La mission « de réflexion sur le financement des politiques publiques en direction de la filière musicale », qui a remis le 20 avril sa centaine de pages (4) à Rima Abdul Malak (5), estime que cette manne « supplémentaire » est indispensable – sur les 30 à 40 millions d’euros estimés nécessaires en plus par rapport au budget actuel (46 millions d’euros en 2023) – pour que le CNM puisse continuer à mener son action et à l’élargir. D’autant que l’innovation (data, livestream, blockchain, IA, NFT, VR, métavers, …) l’amène à assurer un « veille proactive » (accompagnement, formation, expertise), y compris via son think tank CNMlab. La « taxe streaming » a été préférée à deux autres pistes de financement que sont la contribution budgétaire complémentaire (Etat) ou une affectation de la taxe sur la diffusion en vidéo physique et en ligne de contenus audiovisuels (TSN).
Ainsi, créé en janvier 2020, soit plus de huit ans après que la mission Chamfort-Colling-Thonon-Selles-Riester sur le « financement de la diversité musicale à l’ère numérique » ait proposé sa création (6), le CNM – établissement public à caractère industriel et commercial placé sous la tutelle du ministre de la Culture – devrait fonctionner sur le modèle du CNC pour le cinéma et du CNL pour le livre. Mais cette « taxe streaming » ne fait pas l’unanimité au sein de la filière musicale. Huit organisations représentatives de producteurs indépendants de musique enregistrée et de spectacles vivants – UPFI, SPPF, Camulc, Felin, Forces musicales, Prodiss, Profedim et SMA – se sont félicitées le 21 avril « de la priorité donnée à la “taxe steaming” [qui] s’impose comme la solution la plus réaliste, la plus soutenable et la plus cohérente » (7). De même, la Société des auteurs compositeurs dramatiques (SACD) s’est félicitée elle aussi de la proposition de « soumettre à contribution les opérateurs de streaming, payants comme gratuits, [qui] constitue la seule démarche permettant d’assurer pérennité et dynamisme des ressources et de construire un modèle de financement juste basé sur la mutualisation ». Même si la SACD trouve insuffisant ce taux de 1,75 % qui « gagnerait à être relevé » (8).

Le Snep (dont les majors) en désaccord
En revanche, le Snep – représentant notamment les majors de la musique enregistrée (Universal Music, Sony Music et Warner Music) – fustige « la création d’un nouvel impôt sur le streaming dont notre secteur devrait s’acquitter » et « une analyse erronée de la dynamique actuelle du streaming et de ses acteurs », alors qu’« il existe des alternatives pour financer le CNM». Le rapport Bargeton, lui, pointe le fait que les données de stream et de vente physique soient consolidées par le Snep, ce qui « participe du climat général de méfiance autour de la réalité économique du streaming ». @

Charles de Laubier