Les majors Universal Music, Sony Music et Warner Music négocient avec les éditeurs d’IA musicales

Google et sa filiale YouTube négocient avec Universal Music l’autorisation d’utiliser pour son IA musical, MusicML, les données de la première « maison de disques ». Les autres majors, Warner Music et Sony Music, devront aussi trouver des accords. C’est plus une opportunité qu’une menace.

Le 21 août, YouTube a annoncé un accord avec Universal Music autour de l’IA musicale. Le Financial Times avait par ailleurs révélé le 9 août que sa maison mère Google et la première major mondiale de la musique enregistrée étaient en pourparlers pour autoriser que les mélodies et les voix des artistes soient exploitées par l’intelligence artificielle MusicLM (développée par Google) afin que celle-ci puisse créer de nouvelles chansons. Si ces négociations devaient aboutir, un accord de ce type serait une première pour l’industrie musicale qui, jusqu’à maintenant, voient plus ces IA génératives de musiques comme une menace pour elle.

Accords avec Google et YouTube
Quel est l’impact de l’IA générative sur l’industrie musicale ? « Imaginez que quelqu’un vole tout ce qui a de la valeur à une entreprise et l’utilise pour lancer une entreprise pour lui faire concurrence. C’est exactement ce qui se passe avec beaucoup de grands modèles d’IA d’apprentissage automatique qui existent aujourd’hui. Il s’agit d’une concurrence déloyale classique. (…) Il y a un besoin urgent de “code de la route” approprié pour l’IA générative et nous vous encourageons à agir de manière décisive et sans délai », a déclaré le 12 juillet dernier Jeffrey Harleston (photo), directeur juridique et vice-président exécutif pour les affaires commerciales et juridiques d’Universal Music. Il était auditionné au Sénat américain par le sous-comité de la commission judiciaire du Sénat, sur le thème de « l’intelligence artificielle et la propriété intellectuelle » (1).
Que vous disent les artistes au sujet de leurs voix et de la musique utilisées sans leur consentement par des IA musicales ? « Les artistes sont naturellement bouleversés que leur nom, image, ressemblance ou voix soient volés et utilisés pour suggérer qu’ils ont dit, chanté, ou fait quelque chose qu’ils n’ont jamais fait, a-t-il répondu aux sénateurs qui l’auditionnaient. C’est une violation horrible de la vie privée, et comme cela pourrait nuire à la réputation de l’artiste, cela pourrait irrémédiablement nuire à leur carrière. La voix et la personnalité d’un artiste sont leur gagne-pain et les voler – peu importe le moyen – est mal ». Il a appelé les Etats-Unis à procéder à des modifications législatives pour assurer un développement éthique de l’IA, notamment musicale. Le directeur juridique d’Universal Music avance trois points pour une future « loi pérenne sur le droit d’auteur afin de s’assurer qu’elle résiste à une IA en constante évolution technologie » : édicter une loi fédérale sur le droit de publicité [ou droit à l’image, ndlr] pour assurer la protection de la propriété intellectuelle d’un nom, d’une image, d’une ressemblance ou d’une voix ; assurer la transparence des éléments d’apprentissage de l’IA et permettre au titulaire du droit de pouvoir consulter les enregistrements détaillés des entrées d’apprentissage, sans avoir à s’engager dans un litige ; exiger l’étiquetage des oeuvres essentiellement générées par l’IA. Mais sans attendre que le Congrès américain s’empare du sujet, Universal Music cherche à trouver un terrain d’entente avec les éditeurs d’IA générative, tout du moins avec Google qui l’a approché.
La filiale d’Alphabet est aussi entrée en contact avec Warner Music. Il ne resterait plus qu’à discuter avec Sony Music pour faire le tour des trois grandes majors de la musique enregistrée. Rappelons qu’en septembre 2016, le laboratoire Sony CSL (2) avec fait sensation sur YouTube en diffusant une « nouvelle musique » des Beatles baptisée « Daddy’s Car » (3) et créée par l’IA Flow Machines du japonais (4), les Beatles faisant partie du répertoire… d’Universal Music. La n°1 des majors – au siège social situé aux Pays-Bas mais ayant son siège opérationnel basé à Santa Monica en Californie – adhère en outre aux sept principes édictés par le groupe Human Artistry Campaign (5) lancé en début d’année. Il s’agit de défendre les droits des créateurs dans le développement des technologies d’IA.
Pour l’heure, Alphabet avance à grand pas dans la musique générée par l’intelligence artificielle : tant du côté de Google qui a présenté le 26 janvier sa propre IA musicale baptisée MusicLM (6) que du côté de YouTube qui a lancé le 21 août un incubateur d’IA musicale avec des artistes, des auteurscompositeurs et des producteurs d’Universal Music (7).

MusicLM (Google), une IA hi-fi
Google présente MusicLM comme « un modèle générant une musique haute-fidélité à partir de descriptions textuelles ou d’une mélodie fredonnées ». Cette IA génère de la musique à 24 kHz qui reste cohérente sur plusieurs minutes. Et la filiale d’Alphabet d’affirmer : « Nos expériences montrent que MusicLM surpasse les systèmes précédents en termes de qualité audio et d’adhésion à la description du texte » (8). Mais cette IA musicale prometteuse n’a pas encore été rendue accessible au grand public, le géant du Net ayant la prudence de demander l’autorisation des plus grandes maisons de disques pour ne pas être accusé de contrefaçon et de spoliation des artistes. Seuls de nombreux exemples de bandes sonores générées par MusicML ont été mis en ligne.

Meta se met en trois avec Audiocraft
Google n’est pas le seul à s’aventurer sur le terrain du « text-to-music » puisque Meta a mis en logiciel libre (open source) son modèle de langage capable de générer des extraits musicaux, MusicGen. Meta (ex-groupe Facebook), qui avait présenté mi-juin dernier MusicGen comme étant légèrement supérieures à MusicLM en termes de performances, a présenté le 3 août sa panoplie IA appelée Audiocraft, composée non seulement de MusicGen, mais aussi d’AudioGen et d’EnCodec. « MusicGen, qui a été formé avec de la musique appartenant à Meta et spécifiquement sous licence, génère de la musique à partir d’entrées utilisateur textuelles, tandis qu’AudioGen, qui a été formé aux effets sonores publics, génère de l’audio à partir d’entrées utilisateur textuelles. Aujourd’hui, nous sommes ravis de publier une version améliorée de notre décodeur EnCodec, qui permet une génération de musique de meilleure qualité avec moins d’artefacts », explique Meta dans sa présentation. Les trois modèles de la suite Audiocraft sont disponibles à des fins de recherche, destinés aux chercheurs et aux praticiens. Cette ouverture devrait accélérer le développement de l’IA générative pour l’audio, lequel a pris du retard par rapport aux IA générative pour les images, la vidéo et le texte (ChatGPT, Midjourney, Bard, Dall·E 2, LLaMA, Stability AI, …). « Générer de l’audio hautefidélité de toute sorte nécessite la modélisation de signaux et de motifs complexes à différentes échelles. La musique est sans doute le type d’audio le plus difficile à générer car elle est composée de modèles locaux et de longue portée, d’une suite de notes à une structure musicale globale avec plusieurs instruments », fait remarquer la firme de Mark Zuckerberg (9).
Mais le tout-en-un proposé en open source par AudioCraft, pour la musique, le son, la compression et la génération, vise à faciliter l’innovation et la créativité musicales (composition, chanson, bande sonore, …), sans avoir à jouer une seule note sur un instrument. Meta estime même que « MusicGen peut se transformer en un nouveau type d’instrument – tout comme les synthétiseurs lors de leur apparition » (10). MusicGen a été formé sur environ 400.000 enregistrements avec descriptions textuelles et métadonnées, ce qui représente 20.000 heures de musique appartenant à Meta ou sous accords de licence. Pour l’heure, Meta ne fait état d’aucune négociation avec l’industrie musicale et encore moins avec les majors avec lesquels Google a, au contraire, pris langue. « Si vous voyez un exemple de musique UMG [Universal Music Group, ndlr] distribuée illégalement, n’hésitez pas à nous contacter à contentprotection@umusic.com », signale sur son site web (11) la première major dirigée par Lucian Grainge (photo ci-contre). C’est ce qu’on dû peut-être faire les deux artistes Drake et The Weeknd, produits par Universal Music, lorsqu’ils ont constaté en avril dernier qu’un « artiste » surnommé « Ghostwriter » (compositeur fantôme) a mis en ligne une musique avec voix s’inspirant de leur style musical. Les fichiers audio et vidéo de ce morceau de 2 minutes et 14 secondes ont été diffusés avec succès sur plusieurs plateformes de streaming musical (Spotify, YouTube/YouTube Music, Apple Music, TikTok, …), avant d’en être retirés après quelques jours. Un spécialiste américain estime que le morceau pourrait avoir été créé et promu à des fins de marketing viral par une start-up californienne Laylo (12), laquelle travaille avec des artistes musicaux et compte parmi ses investisseurs… Sony Music. Bien d’autres artistes musicaux ont été imités par des IA génératives à tendance mélomane. La chanteuse barbadienne Rihanna (signée elle aussi chez UMG) s’est par exemple étonnée au printemps de s’entendre chanter « Cuff It » de Beyoncé, via une « IA Rihanna » (13).
Le rappeur Ye (ex-Kanye West, ayant son propre label Good Music) n’a pas non plus été épargné par la déferlante IA musicale, avec les musiques « Hey There Delilah » de Plain White T’s et « Passionfruit » de Drake. Angèle, elle, s’est vue en août chanter en duo avec Gazo (14) sans son consentement. Les IA musicales Flow Machines, MusicGen, AudioGen, MusicLM, Riffusion ou encore Mubert n’ont pas fini de surprendre. Jeffrey Harleston compte sur les Etats-Unis pour résorber leur retard dans la réglementation de l’IA générative.

Les Etats-Unis derrière la Chine et l’UE
A la suite des auditions de cet été, le Congrès américain devrait légiférer sur l’IA d’ici la fin de l’année. A l’instar de la Chine (15), l’Union européenne (UE) a pris de l’avance dans l’élaboration de son « AI Act » qui est entré mi-juin en phase de discussion législative entre le Parlement européen et le Conseil de l’UE. « Les systèmes d’IA générative comme ChatGPT doivent mentionner que le contenu a été généré par une IA. (…) Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics », prévoit le projet de règlement européen sur l’IA (16). Les IA génératives vont devoir s’accorder. @

Charles de Laubier

La banque centrale américaine, la Fed, met des bâtons dans les cryptos pour préserver le dollar

A peine le géant du e-paiement PayPal avait-il annoncé le 7 août sa cryptomonnaie indexée sur le dollar, baptisée « PayPal USD », que la banque centrale des Etats-Unis – la Federal Reserve (Fed) – publiait le lendemain un avertissement à l’attention du secteur bancaire américain.

Il ne s’agit pas, du point de vue des Etats- Unis, de déstabiliser le sacro-saint dollar américain, qui est devenu depuis la Seconde-Guerre mondiale (1) la plus importante monnaie de réserve internationale, après avoir détrôné la livre sterling britannique. Le dollar est la monnaie la plus utilisée dans le monde. Or dès qu’une monnaie ou une devise – et à plus forte raison une cryptomonnaie – menace la suprématie du billet vert, la Fed (Federal Reserve) voit rouge.

La Fed freine les cryptos et lance FedNow
D’où ses mises en garde aux émetteurs de monnaies numériques, y compris celles adossées au dollar. C’est ainsi que la banque centrale américaine (2) a publié le 8 août – soit le lendemain de l’annonce par PayPal de sa propre cryptomonnaie indexée sur le dollar et baptisée « PayPal USD » – un avertissement aux banques des 50 Etats membres, du moins à celles « qui cherchent à s’engager dans certaines activités impliquant des jetons en dollars ». La Fed, présidée par Jerome Powell (photo), a rappelé que le Federal Reserve Act (3) permet au conseil des gouverneurs de la Fed d’exercer son « pouvoir discrétionnaire » pour « limiter les banques d’Etat membres et leurs filiales à n’exercer, en tant que mandant, que les activités qui sont autorisées pour les banques nationales ».
Pour les transactions avec des jetons en dollars (dollar tokens) rendues possibles – comme pour toutes les cryptomonnaies – par la blockchain, ce que la Fed appelle « la technologie du grand livre distribué [distributed ledger] ou des technologies similaires », elles sont possibles mais à une condition : que la banque ait obtenu l’autorisation après avoir démontré au Bureau du contrôleur de la monnaie (OCC) et aux superviseurs qu’elle a mis en place « des contrôles pour mener l’activité de manière sûre et saine ». Autrement dit, pour peu qu’elles aient le feu vert de la Fed, les banques américaines peuvent « effectuer des activités de paiement à titre principal, notamment en émettant, détenant ou effectuant des transactions de jetons en dollars », ce que l’OCC appelle des « stablecoin » (cryptos adossées à une monnaie plus stable comme le dollar ou l’euro). Même pour tester un dollar token, une autorisation écrite dite de « non-objection prudentielle » est aussi nécessaire. Les Etats-Unis ont en fait tendance à voir l’émergence de ces « stablecoin » comme une menace potentielle pour la stabilité financière du pays voire du monde et un risque d’atteinte à sa souveraineté monétaire. Dans sa « lettre de supervision et de régulation » (4), la Fed oblige les banques à éviter « les risques opérationnels » (gouvernance, surveillance du réseau, …), « les risques de cybersécurité » (smart contracts, codes open source, …), « les risques de liquidité » (rachats importants, sorties rapides de dépôts, …), « les risques financiers illicites » (secret bancaire, identité d’un client, activités suspectes, …), « les risques liés à la conformité des consommateurs » (identification, protection des consommateurs, …). La Fed entend ainsi maintenir la pression sur les banques qui doivent plus que jamais montrer pattes blanches en matière de cryptomonnaies, stablecoins compris. La Réserve fédérale, à la fois juge et partie, n’a-t-elle pas lancé le 20 juillet dernier FedNow (5), un service de e-paiement instantané à bas coût proposé à leurs clients par déjà 35 banques et organismes de crédit ? Certains y voient une volonté de la Fed de rendre obsolètes les cryptomonnaies (6).
Ce n’est pas un hasard si le rappel à la loi fédérale a été émis juste après l’annonce du PayPal USD (PYUSD), la veille. Le géant du e-paiement a lancé le 7 août son stablecoin qui est « entièrement adossé aux dépôts en dollars américains, aux bons du Trésor américain à court terme et aux équivalents de trésorerie similaires, et peut être échangé 1:1 contre des dollars américains ». PayPal estime que « les stablecoins réglementés et entièrement adossés ont le potentiel de transformer les paiements dans les environnements web3 et numériques natifs ». Et le PDG de PayPal, Dan Schulman, d’affirmer : « La transition vers les monnaies numériques nécessite un instrument stable qui est à la fois numérique et facilement connecté à la monnaie fiduciaire comme le dollar américain ».

PayPal vise le monde, Worldcoin aussi
PayPal USD est émis en tant que jeton numérique ERC- 20 sur la blockchain Ethereum par Paxos Trust Company (ex-itBit), une fintech newyorkaise pionnière de la blockchain et du bitcoin. PayPal a obtenu de la part du l’Etat de New York en juin 2022 la licence BitLicense validant la sécurité de ses investissements dans les cryptos. Pendant ce tempslà, le 24 juillet, la version bêta de la cryptomonnaie Worldcoin (WLD), cocréée par le fondateur d’OpenAI/ChatGPT, Sam Altman, a été lancée (7). Face à cette « bitconnisation » de la finance, les banques centrales du monde entier et les régulateurs ne sont pas au bout de leurs peines. @

Charles de Laubier

La peur envers les intelligences artificielles de type ChatGPT tourne à la psychose irrationnelle

Depuis la pétition signée le 29 mars 2023 par Elon Musk et des experts demandant un moratoire sur le développement des « cerveaux numériques » qui, selon eux, présentent des « risques majeurs pour l’humanité », les craintes se le disputent aux fantasmes quant à l’avenir des « ChatGPT ».

A les entendre ces Cassandres et Nostradamus de ce début du XXIe siècle, « l’extinction de l’humanité » serait pour bientôt. La fin des temps arriverait aussi rapidement que se développent les intelligences artificielles à la ChatGPT, lesquelles sont l’objet de toutes leurs angoisses existentielles. Si l’Apocalypse relève de l’eschatologie religieuse, la « ChatGPTéisation » annoncerait, elle, l’hécatombe de l’être humain. Ce tsunami numérique des IA, à l’apprentissage fulgurant, provoquerait la fin du monde.

L’Homo sapiens supplanté par l’IA sapiens
Les tribunes et déclarations de ces craintifs se suivent et se ressemblent : il faudrait pour les uns instaurer « un moratoire » face aux « risques majeurs pour l’humanité » que constitueraient les IA concurrentielles pour l’homme ; il est temps pour les autres de « prendre au sérieux certains des risques les plus graves de l’IA avancée » menaçant l’espèce humaine d’« extinction ». Les peurs que suscitent les ChatGPT, Midjourney et autres Bard, ainsi que toutes les autres IA surhumaines qui les supplanteront, virent aux fantasmes voire à l’hystérie collective. « L’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale, parallèlement à d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires », clament des dizaines de signataires chercheurs en intelligence artificielle (AI Scientists), professeurs d’universités et personnalités, dont Samuel (Sam) Altman (photo), le cofondateur avec Elon Musk de la start-up OpenAI qui a développé ChatGPT (générateur de textes) et de Dall-E (générateur d’images). Ce sont les deux IA les plus en vue depuis leur lancement respectif fin novembre 2022 et début 2021.
Sam Altman, qui a fait part le 17 mai au Sénat américain de sa peur de voir cette « superintelligence » provoquer de « graves dommages au monde », serait-il devenu malgré lui le pompier-pyromane en chef des IA générative ? La courte déclaration mise en ligne le 30 mai dernier sur le site du Center for AI Safety (1), une ONG américaine dédiée aux « risques IA », est aussi signée par Bill Gates (Gates Ventures) ou encore Grimes (célèbre musicienne). Il y a même le Canadien Geoffrey Hinton (75 ans), professeur émérite d’informatique et chercheur, parfois surnommé le parrain voire le « Dieu le Père » (Godfather)de l’IA et du Deep Learning (apprentissage profond dont se nourrissent les intelligences artificiels). Il s’est distingué le 1er mai dernier en annonçant qu’il quittait Google « pour pouvoir parler des dangers de l’IA ». Et critiquer son ancien employeur dans ce domaine comme l’a suggéré le New York Times (2) ? Que nenni : « Sans considérer comment cela affecte Google. Google a agi de façon très responsable », a-t-il rectifié dans un tweet (3). Geoffrey Hinton, qui aujourd’hui rejoint le cœur de ceux qui parlent de « profonds risques pour la société et l’humanité », a travaillé pendant près d’un demi-siècle sur l’IA générative appliquée aux chatbots, ces robots conversationnels (4) qui terrifient un nombre croissant d’humains. Au risque de conflits d’intérêts, il avait annoncé en mars 2013 – lorsque la firme de Mountain View a racheté son entreprise DNNresearch (5) – qu’il allait « poursuivre [s]es recherches à Toronto et, en même temps, aider Google à appliquer les nouveaux développements en apprentissage profond pour créer des systèmes qui aident les gens ». Il n’avait alors émis à l’époque aucune réserve sur ses travaux…
Elon Musk, pourtant moins frileux dans d’autres domaines industriels où le zéro risque n’existe pas, et qui plus est un des cofondateurs d’OpenAI (d’où il s’est retiré en 2018), a été l’un des milliers de cosignataires de la tribune « AI Pause » (6) parue le 22 mars 2023. Ce texte lançait des cris d’orfraie en disant stop : « Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable et inclure tous les acteurs-clés. Si une telle pause ne peut être mise en œuvre rapidement, les gouvernements devraient intervenir et instituer un moratoire ». Parmi les plus de 31.800 autres signataires : le chercheur français Joseph Sifakis, prix Turing de l’informatique 2007, pour qui « la technologie va trop vite » (7). Sam Altman, lui, n’en est pas signataire…

Réguler, oui ; arrêter l’IA, non
Le patron d’OpenAI, financé à coup de milliards par Microsoft, appelle les Etats à réguler ces IA superintelligentes : pour mieux freiner ses concurrents (comme Google avec Bard) et conforter la position dominante de ChatGPT sur ce tout naissant marché ? Après le Sénat américain le 17 mai, Sam Altman a rencontré le 23 mai Emmanuel Macron (8), puis le lendemain il a menacé de Londres de fermer ChatGPT en Europe si son futur AI Act était trop contraignant ! Avant de se dédire face au courroux du commissaire européen Thierry Breton l’accusant le 25 mai (9) de « chantage ». @

Charles de Laubier

Sous pression de ChatGPT et frénétiquement, Google multiplie les produits d’intelligence artificielle

L’édition 2023 de la conférence des développeurs Google I/O, qui s’est tenue le 10 mai, a montré pour la première fois de l’histoire de la filiale d’Alphabet, créée il y a 25 ans, que l’IA est désormais devenue sa priorité numéro une. L’enjeu est de taille : ne pas se faire « ChatGPTéiser ».

Le 2 juin à l’assemblée générale annuelle des actionnaires d’Alphabet, la maison mère de Google, l’intelligence artificielle (IA) sera dans toutes les têtes. Ce rendez-vous entièrement virtualisé (1) devrait entériner la nouvelle stratégie de Google plus que jamais tournée vers l’IA. Le temps presse car la firme de Mountain View (Californie) ne mène plus la danse sur le Web, depuis que la start-up OpenAI a lancé fin novembre 2022 son IA générative ChatGPT, allant même jusqu’à déstabiliser le numéro un des moteurs de recherche.

Alphabet met de l’IA à tous les étages
Pour la première fois depuis sa création il y a 25 ans par Larry Page et Sergey Brin, « Google Search » se sent menacé. Audelà de sa réplique à ChatGPT avec sa propre IA générative, Bard, le groupe Alphabet dirigé par Sundar Pichai met les bouchées doubles dans l’IA. Jamais la conférence des développeurs Google I/O (2), dont c’était la 15e édition annuelle depuis son lancement en 2008 (en tenant compte de son annulation en 2020 pour cause de pandémie), n’a été autant tournée vers l’intelligence artificielle. Le système d’exploitation mobile Android, les smartphones Pixel et autres outils de l’écosystème Google sont passés au second plan (3).
L’année 2023 est une étape historique pour la filiale d’Alphabet qui a entrepris de généraliser l’IA partout où cela peut être utile. « L’IA est déjà dans de nombreux produits des millions (et dans certains cas des milliards) de personnes utilisent déjà comme Google Maps, Google Translate, Google Lens et plus encore. Et maintenant, nous apportons l’intelligence artificielle pour aider les gens à s’enflammer et à faire preuve de créativité avec Bard, à augmenter leur productivité avec les outils Workspace et à révolutionner la façon dont ils accèdent aux connaissances avec Search Generative Experience », a expliqué James Manyika (photo), vice-président chez Alphabet et Google, en charge des technologies et de la société ainsi que de Google Research et de Google Labs. L’IA s’est invitée dans la plupart des annonces faites aux développeurs « I/O », comme l’illustre un compte-rendu mis en ligne (4).
Quant au chatbot intelligent Bard, qui fut lancé dans la précipitation le 6 février dernier d’abord auprès d’happy few testeurs pour engager un bras de fer avec ChatGPT cornaqué par Microsoft (5), il est appelé à évoluer pour tenter de s’imposer. « Plus tard cette année, Data Commons – un système qui organise des données provenant de centaines de sources pour éclairer les approches des grands défis sociétaux, de la durabilité aux soins de santé, en passant par l’emploi et l’économie dans de nombreux pays – sera accessible par l’intermédiaire de Bard, ce qui le rendra encore plus utile », a aussi annoncé James Manyika. Au-delà de Bard, l’IA sera mise à contribution par Alphabet pour faire face aux changements climatiques et réduire les émissions de carbone, pour améliorer les soins de santé, y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. « Nous avons récemment annoncé un nouveau grand modèle linguistique qui pourrait être un outil utile pour les cliniciens : Med-PaLM », cite en exemple Google.
L’IA va aussi de plus en plus aider les scientifiques dans de nombreux domaines, comme la physique, la science des matériaux et la santé, à l’instar du programme AlphaFold de Google DeepMind pour prédire avec précision la forme 3D de 200 millions de protéines (macronutriments essentiels au bon fonctionnement de l’organisme). L’IA va contribuer également à rendre l’information mondiale encore plus accessible à tous et permettre à chacun d’évaluer l’information en ligne et de détecter la mésinformation. « Dans les prochains mois, a indiqué James Manyika, nous allons ajouter un nouvel outil, “About this image” (6) dans Google Search, qui fournira un contexte utile, comme le moment et l’endroit où des images similaires peuvent être apparues pour la première fois et où elles ont été vues en ligne, y compris les actualités, la vérification des faits et les sites sociaux. Plus tard cette année, cet outil sera disponible dans Chrome et Google Lens ». L’IA est aussi au cœur d’Universal Translator, un nouveau service expérimental du géant du Net. Il s’agit d’un outil intelligent de doublage vidéo qui traduit la voix d’un orateur et fait correspondre ses mouvements de lèvres.

Concevoir les IA avec des garde-fous
Selon Google, Universal Translator présente un énorme potentiel pour accroître la compréhension de l’apprentissage. Mais cela présente des risques de détournement, des « tensions » comme les désigne James Manyika : « Nous avons conçu le service avec des garde-fous pour limiter l’utilisation abusive et le rendre accessible seulement aux partenaires autorisés. Nous appliquons nos principes d’IA (7) à nos produits », assure-t-il. L’IA responsable (8) suppose aussi des outils de détection (« classificateurs ») pour débusquer les deepfake (9) et les supercheries. Et ce n’est que le début d’une nouvelle ère. @

Charles de Laubier

Eclairage sur NewsGuard, la start-up qui éloigne les publicitaires des « mauvais » sites d’actualités

NewsGuard a repéré une cinquantaine de sites web d’actualités générées par des intelligences artificielles (newsbots). Mais qui est au juste cette start-up newyorkaise traquant depuis 5 ans la mésinformation en ligne, notamment pour le compte de Publicis qui en est coactionnaire ?

Il y a cinq ans, en mars 2018, la start-up newyorkaise NewsGuard Technologies lançait la première version de son extension pour navigateurs web qui avertit les utilisateurs lorsque des contenus faisant état de fausses informations (fake news) ou relevant de conflits d’intérêt (lobbying) sont détectés sur les sites web visités. L’équipe d’analystes et de journalistes de NewsGuard évaluent la fiabilité générale et la crédibilité des sites en ligne, avec un système de notation sur 100 et de classement. A partir de 75/100, un site d’actualité devient généralement crédible.

Le français Publicis, actionnaire et client
La société NewsGuard a été cofondée en août 2017 par les deux directeurs généraux actuels et « co-directeurs de la rédaction », Gordon Crovitz (photo de gauche) et Steven Brill (photo de droite), deux vétérans de la presse américaine, notamment respectivement ancien éditeur du Wall Street Journal (Dow Jones) pour le premier et fondateur du magazine The American Lawyer et de Court TV pour le second. Parmi ses nombreux coactionnaires, il y a un géant mondial de la publicité, le français Publicis – « moins de 10 % du capital » –, nous dit Gordon Crovits – aux côtés de Knight Foundation, Cox Investment Holdings ou encore Fitz Gate Ventures (1). La relation avec Publicis est non seulement actionnariale mais aussi partenariale. Cela fait deux ans que NewsGuard et Publicis ont annoncé leur alliance pour « stimuler la publicité sur les sites d’actualité fiables ».
Le groupe publicitaire fondé il y a presqu’un siècle par Marcel Bleustein-Blanchet (dont la fille Elisabeth Badinter est toujours la principale actionnaire) identifie ainsi depuis pour ses clients annonceurs et professionnels du marketing « des plateformes publicitaires plus responsables et dignes de confiance, et des opportunités de combattre l’infodémie dans les médias ». Et surtout « pour éviter que leurs publicités financent involontairement des milliers de sites de mésinformation et d’infox » (2). L’enjeu est de taille puisque la publicité programmatique a tendance à financer aussi bien des sites de mésinformation que des sites d’actualités fiables. Dans son dernier document d’enregistrement universel pour l’année 2022, publié le 26 avril dernier, le groupe Publicis parle de « partenariat exclusif » avec NewsGuard qui « donne à tous [s]es clients accès à l’outil “Publicité responsable dans les médias” (3) permettant l’inclusion ou l’exclusion de sites, afin d’éviter que leurs publicités financent involontairement des sites d’infox ou de mésinformation/désinformation » (4). Au-delà de sa solution de «Ratings» sur la transparence des sites web d’information, NewsGuard Technologies propose aussi aux annonceurs, agences et autres sociétés de l’adtech une solution baptisée BrandGuard pour éviter que leurs publicités en ligne ne se retrouvent sur des sites web jugés non fiables ou sources de mésinformation. Ainsi, les analystes et conseillers éditoriaux de la start-up américaine – il y a même des « rédacteurs en chef » – évalue « des milliers de sites d’actualité et d’information couvrant 95 % de l’engagement en ligne dans chaque marché, pour certifier les sites d’actualité fiables, et alerter sur les domaines peu fiables qui diffusent de fausses informations dangereuses, des théories du complot, ou se font passer pour des sources d’actualité légitimes ». Ainsi, ce sont plusieurs milliers de sites web d’actualités qui sont passés au crible aux Etats-Unis, au Royaume-Uni, au Canada, en Allemagne, en Italie et en France. NewsGuard Technologies se préoccupe aussi de débusquer une autre catégorie de sites d’actualités sujets à caution : les newsbots, dont les contenus sont en majorité ou totalement écrits par des intelligences artificielles (IA) et qui s’avèrent être « de qualité médiocre ».
NewsGuard en a identifié une cinquantaine et l’a fait savoir le 1er mai dernier. Ces robots d’actualités ou « fermes à contenus », ou newsbots, ont pour nom : Famadillo, GetIntoKnowledge, Biz Breaking News, News Live 79, Daily Business Post, Market News Reports, BestBudgetUSA, HarmonyHustle, HistoryFact, CountyLocalNews, TNewsNetwork, CelebritiesDeaths, WaveFunction, ScoopEarth ou encore FilthyLucre (5). Contactés par Edition Multimédi@, les deux auteurs de l’étude – McKenzie Sadeghi et Lorenzo Arvanitis – indiquent qu’ils ont aussi en France identifié Actubisontine et Commentouvrir, sites web francophones boostés à l’IA.

Détecter les textes générés par l’IA
« Malheureusement, les sites ne fournissent pas beaucoup d’informations sur leur origine et sont souvent anonymes », nous précise McKenzie Sadeghi. Tandis que Lorenzo Arvaniti nous indique que « la saisie d’articles dans l’outil de classification de texte AI (6) vous donne une idée d’un modèle selon lequel une quantité substantielle de contenu sur le site semble générée par IA ». NewsGuard a aussi soumis les articles de son étude à GPTZero (7), un autre classificateur de texte d’IA. @

Charles de Laubier