La CSNP demande à l’Etat de lancer une étude d’impact sur les communs numériques

La Commission supérieure du numérique et des postes (CSNP) a publié le 8 novembre un avis sur les communs numériques. Bien qu’ouverts et gratuits, plusieurs « freins » à leur développement sont identifiés. Les Etats jouent parfois contre eux, en finançant des produits ou services similaires.

Parmi les onze recommandations que fait la Commission supérieure du numérique et des postes (CSNP) – instance bicamérale et transpartisane en interaction avec Bercy – dans son avis rendu le 8novembre et intitulé «Commun numériques : vers un modèle souverain et durable », la n°5 suggère à l’Etat français de « lancer une étude d’impact économique et sociétale comparée pour les communs numériques d’intérêt général ». Et ce, « afin d’évaluer, notamment d’un point de vue comparatif, les coûts générés et évités par les communs numériques d’intérêt général ».

Clarifier les aides d’Etat dans les communs
La CSNP, dont la mission sur les communs numériques a été pilotée par Jeanne Bretécher (photo), mentionne juste en guise d’exemple où une étude comparée pourrait être pertinente : « NumAlim versus Open Food Facts ». Mais sans expliquer pourquoi. Ces deux initiatives poursuivent le même objectif : fournir des informations sur les produits alimentaires. Mais les deux sont d’origine différente, comme l’analyse Edition Multimédi@. Open Food Facts est un projet collaboratif lancé par des citoyens bénévoles pour créer une base de données libre et ouverte sur les produits alimentaires, utilisé par NutriScore, Yuka, Foodvisor et ScanUp ou encore Centipède. Alors que NumAlim est en revanche un projet initié par l’Ania (1), le lobby de l’industrie alimentaire, et opéré par la société Agdatahub (détenue par la holding API-Agro), pour créer une plateforme de données ouvertes mais aussi payantes sur les produits alimentaires. Mais au-delà du fait qu’Open Food Facts à but non lucratif est un vrai commun numérique gratuit et que NumAlim est une plateforme commerciale avec sa place de marché « BtoB » HubAlim, leurs financements diffèrent : Open Food Facts dépend principalement des contributions de bénévoles et de dons, tandis que NumAlim bénéficie du financement de la Banque des Territoires, filiale d’investissement de la Caisse des Dépôts (CDC), bras armé financier de l’Etat français.

Cet exemple illustre le deux poids-deux mesures dans la façon dont l’Etat français appréhende les « communs numériques ». La France apparaît plus encline à financer des start-up – au nom de la French Tech ou de la Start-up Nation – qu’à subventionner des projets de communs numériques d’intérêt général. Or pour ces derniers, relève la CSNP, « les modèles de financement des “start-ups”, avec prise de participation, ne sont pas adaptés ». Une telle dichotomie dans l’accès au financement opère implicitement une discrimination entre start-up et communs numériques, alors que la réglementation européenne des aides d’Etat considère les communs numériques d’intérêt général comme une activité économique classique, au même titre que des start-up. Ces communs numériques pourraient même entrer dans la catégorie des Services économiques d’intérêt général (SIEG) dont les aides publiques peuvent être plus élevées. L’étude d’impact économique et sociétale comparée que la CSNP appelle de ses vœux permettrait d’y voir plus clair sur la stratégie d’investissement de l’Etat français dans les communs numériques – que cela soit par la CDC via ses filiales Banque des Territoires et Bpifrance (2), ou par ses différents programmes d’investissement. « Cette étude pourrait être portée par la Cour des comptes, l’Inspection générale des finances [interministérielle, ndlr], France Stratégie [service du Premier ministre, ndlr] ou le Conseil général de l’économie [CGE à Bercy, ndlr] », propose la CSNP qui va même plus loin. « D’une manière générale, la CSNP souhaite que des études d’impact soient conduites sur les investissements publics dans des domaines numériques (French Tech, NumAlim, Qwant…) ». La plan gouvernemental French Tech aura dix ans fin 2023, dont la mission est installée depuis 2017 chez l’incubateur Station F fondé par le milliardaire fondateur de Free, Xavier Niel. Quel impact a la French Tech et ses 22.767 start-up (3) soutenus par l’Etat sur les communs numériques ?
Le moteur de recherche d’origine franco-allemand Qwant, cofinancé par la CDC et le groupe Axel Springer, est-il – depuis son lancement avec Emmanuel Macron à l’Elysée il y a plus de dix ans (4) – un commun numérique ou un « Google à la française » à but lucratif ? Une étude d’impact serait donc la bienvenue. D’autant que les communs numériques – ou digital commonsen anglais – sont de plus en plus répandus et utiles.

« Wiki », « Open data » ou encore « Freeware »
Ce sont par exemple : les logiciels libres comme OpenOffice ou Linux ; les plateformes comme Wikipedia ou OpenStreetMap ; les bases de données ouvertes comme Open Food Facts ou Open Library ; les « fédivers » comme les médias sociaux interopérables Mastodon ou PeerTube (5) ; les initiatives publiques comme les Géo-communs de l’IGN (6), la messagerie instantanée Tchap de la DINum (7), la formation à distance avec BigBlueButton de l’Education nationale, l’accès au droit comme Open Law de la Dila (8) et d’Etalab, ou encore le logiciel libre socio-fiscal OpenFisca de France Stratégie (9) et d’Etalab (10). @

Charles de Laubier

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».

Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.

A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

Médias sociaux : l’Unesco tiendra sa première Conférence mondiale des régulateurs en juin 2024

L’agence de l’ONU pour l’éducation, la science et la culture organisera mi-2024 sa toute première Conférence mondiale des régulateurs. Au moment où les plateformes numériques en Europe font la chasse aux « contenus illicites », l’Unesco veut des garde-fous pour la liberté d’expression.

Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques.

Préserver la liberté d’expression
« Il y a une exigence cardinale qui a guidé nos travaux : celle de préserver toujours la liberté d’expression et tous les autres droits humains. Contraindre ou brider la parole serait une terrible solution. Des médias et des outils d’information libres, de qualité et indépendants, constituent la meilleure réponse sur le long terme à la désinformation », a mis en garde Audrey Azoulay.
L’Unesco, qui revendique son rôle « pour la promotion et la protection de la liberté d’expression et de l’accès à l’information », a présenté à Paris – où est basé son siège social – les « Principes pour la gouvernance des plateformes numériques », détaillés dans un document d’une soixantaine de pages (1). Ils sont le fruit d’une consultation multipartite engagée en septembre 2022 et au cours de trois consultations ouvertes qui ont eu lieu respectivement entre décembre 2022 et janvier 2023, entre février et mars 2023 et entre avril et juin 2023, soit au total 1.540 contributions provenant de 134 pays et ayant généré plus de 10.000 commentaires. « Préserver la liberté d’expression et le droit d’accès à l’information, tout en luttant contre la désinformation, les discours de haine et les théories du complot, nécessite une approche multipartite », justifie l’Unesco, qui a aussi tenu compte des conclusions de sa conférence mondiale de février 2023 consacrée à la régulation des plateformes numériques (2). La protection de la liberté d’expression dans le monde est la première préoccupation de l’Unesco, alors que dans les vingt-sept Etats membres de l’Union européenne (UE) les très grandes plateformes en ligne et très grands moteurs de recherche en ligne – au nombre de dix-neuf (3) – doivent se conformer depuis le 25 août au règlement sur les services numériques qui leur impose de lutter contre les « contenus illicites » (fausses informations, discours haineux, messages à caractère terroriste, …). Selon certaines organisations, ce Digital Services Act (DSA) – applicable à toutes les plateformes numériques à partir du 17 février 2024 – présentent une menace pour la liberté d’expression des Européens (4) – notamment en cas de censure abusive, voire d’interprétation contestée de la part du commissaire au Marché intérieur, Thierry Breton (5).

Si l’Unesco ne mentionne pas dans son document les avancées de l’UE dans ce domaine, elle n’en met pas moins en garde les Etats du monde entier contre les atteintes à la liberté d’expression et aux droits humains. « Les Principes [pour la gouvernance des plateformes numériques] commencent par décrire l’environnement propice nécessaire pour sauvegarder la liberté d’expression, l’accès à l’information et d’autres droits humains, tout en garantissant un environnement ouvert, sûr et sécurisé pour les utilisateurs et les non-utilisateurs des plateformes numériques », explique l’Unesco dans son document. Sont ainsi définies les responsabilités des différentes parties prenantes, et ce n’est pas un hasard si celles-ci commencent par « les devoirs des Etats de respecter, protéger et appliquer les droits humains » :
Les Etats doivent respecter et promouvoir les droits humains, y compris le droit à la liberté d’expression et le droit d’accès à l’information. Les restrictions à la liberté d’expression ne sont admissibles que dans les conditions prévues aux articles 19 et 20 du PIDCP [Pacte international relatif aux droits civils et politiques (6), adopté par les Nations Unies en 1966 et entré en vigueur en 1976, ndlr].

Les Etats ne doivent ni censurer…
Les Etats ont des obligations positives de protéger les droits humains contre les ingérences injustifiées des acteurs privés, y compris les plateformes numériques, car ils ont la responsabilité de créer un environnement réglementaire qui facilite le respect des droits humains par les plateformes numériques et de donner des orientations aux plateformes numériques sur leurs responsabilités.
Les Etats sont tenus d’être pleinement transparents et responsables quant aux exigences qu’ils imposent aux plateformes numériques pour assurer la sécurité et la prévisibilité juridiques, qui sont des conditions préalables essentielles à l’Etat de droit. Plus précisément, les Etats doivent notamment : garantir les droits des utilisateurs des plateformes numériques à la liberté d’expression, à l’accès à l’information, à l’égalité et à la non-discrimination, et protéger les droits à la vie privée, à la protection des données, d’association et de participation publique des utilisateurs ; veiller à ce que toute restriction imposée aux plateformes respecte systématiquement le seuil élevé fixé pour les restrictions à la liberté d’expression, sur la base de l’application des Articles 19 et 20 du PIDCP.

…ni couper le réseau Internet
Les Etats doivent s’abstenir, notamment
: d’imposer des mesures qui empêchent ou perturbent l’accès général à la diffusion de l’information, en ligne et hors ligne, y compris les coupures d’Internet ; d’imposer une obligation générale de surveillance ou, pour les plateformes numériques, l’obligation générale de prendre des mesures proactives en relation avec les contenus considérés comme illégaux dans une juridiction spécifique ou avec les contenus qui peuvent être restreints de manière admissible en vertu des normes et de la législation internationales en matière de droits humains.
L’année 2024, au cours de laquelle se tiendra la première Conférence mondiale des régulateurs organisée par l’Unesco, sera d’autant plus décisive pour la régulation des plateformes numérique que 2 milliards de personnes sur la planète seront appelées à voter lors d’une cinquantaine d’élections dans plusieurs pays. Or, selon une étude réalisée l’été dernier par l’institut Ipsos pour l’agence « éducation, science et culture » de l’ONU, 87 % des personnes interrogées (sur un total de 8.000 dans 16 pays où se dérouleront une élection en 2024) craignent que la propagation de fausses informations en ligne ait un impact majeur sur les élections dans leur pays, et autant (87 % également) en appelle à une meilleure régulation des médias sociaux.
Les Facebook, YouTube, TikTok et autres Snapchat sont devenus dans de nombreux pays « la première source d’information des citoyens, en même temps que le principal vecteur de désinformation et de manipulation », relève la directrice générale de l’Unesco. La prochaine année électorale débutera avec les élections parlementaires au Bengladesh en janvier 2024, suivies par l’élection présidentielle au Sénégal en février 2024 et bien d’autres rendez-vous électoraux dans d’autres pays (El Salvador, Indonésie, Inde, Afrique du Sud, République dominicaine, Belgique, Mexique, Croatie, Autriche, Roumanie, Ghana), et se terminera avec l’élection présidentielle en Algérie en décembre 2024, précédée de l’élection présidentielle aux Etats-Unis en novembre 2024. « La régulation des réseaux sociaux constitue d’abord un enjeu démocratique. Bien sûr, la libération de la parole et de la participation démocratique par le numérique a représenté d’immenses progrès à certains égards, a expliqué Audrey Azoulay. Mais ces réseaux sociaux ont aussi accéléré et amplifié, parfois délibérément et à une échelle quasi-industrielle, la diffusion de fausses informations, voire de discours de haine et de théories complotistes – et ceux-ci tendent à se renforcer mutuellement ». Tout en appelant à la « modération » des contenus illicites sur Internet, elle appelle aussi à la « modération » de la régulation pour préserver la liberté d’expression. « Je voudrais souligner une exigence essentielle, qui a servi de boussole pour nous : la préservation de la liberté d’expression et de tous les autres droits de l’homme. Limiter ou restreindre la parole serait une fausse solution – une solution terrible, en fait – pour un problème très réel », a prévenu la directrice générale de l’Unesco, dont le second mandat s’achèvera en novembre 2025.
Les gouvernements et les autorités de régulation auront-ils la main lourde dans la chasse aux fake news ? C’est à craindre, alors que les pouvoirs publics (gouvernements et régulateurs justement) sont considérés – par le plus grand nombre de personnes interrogées dans le monde par Ipsos pour l’Unesco (29 %) – « comme les principaux responsables de l’identification et de la lutte contre la désinformation en ligne ». Et ce, devant les internautes eux-mêmes (23 %), les nouveaux médias (20 %), les médias sociaux (19 %), les organisations internationales (5 %) et les politiciens (4 %). En outre, à l’affirmation selon laquelle « les organisations internationales comme les Nations unies ou l’Unesco ont un rôle majeur à jouer dans la lutte contre la désinformation et les “fake news” », 75 % des sondés disent « Oui » (7).

La recommandation sur l’IA a deux ans
L’Unesco, dont le mandat confié par l’ONU est aussi de défendre et de promouvoir la liberté d’expression, l’indépendance et le pluralisme des médias (régulation globale des médias comme la radio ou la télévision), s’affirme de plus en plus dans la régulation d’Internet et l’éthique des nouvelles technologies. Elle a ainsi émis une recommandation sur l’éthique de l’intelligence artificielle, adoptée en novembre 2021 par les 193 Etats membres, pour fixer un cadre humaniste aux développements de cette innovation qui a depuis explosée avec les IA génératives (8). Tandis que la Convention de l’Unesco de 2005 sur la protection et la promotion de la diversité des expressions culturelles (9) intègre de plus en plus de directives opérationnelles élargies au numérique. @

Charles de Laubier

OpenSea, l’ex-1ère plateforme d’échanges de NFT, dévalorisée, licencie mais prépare sa version 2.0

Son cofondateur Devin Finzer l’a confirmé : la société Ozone Networks (alias OpenSea), valorisée début 2022 plus de 13 milliards de dollars, licencie. Mais la première plateforme d’échange de NFT va tenter rebondir, sur un marché baissier et face à son nouveau rival Blur, grâce à « OpenSea 2.0 ».

« Nous avons pris du recul et repensé notre culture opérationnelle, notre produit et notre technologie, à partir de zéro. Et aujourd’hui, nous réorientons l’équipe autour d’OpenSea 2.0, une grande mise à niveau de notre plateforme – y compris la technologie sous-jacente, la fiabilité, la vitesse, la qualité et l’expérience. Nous aurons bientôt des expériences à partager avec vous. Aujourd’hui, nous disons au revoir à un certain nombre de coéquipiers d’OpenSea. C’est la partie la plus difficile de ce changement », a annoncé le 3 novembre Devin Finzer (photo), cofondateur et directeur général d’Ozone Networks, opérant la place de marché OpenSea (1).

Son actionnaire Coatue se désengage
Les premières plateformes d’échanges de NFT ont eu leur heure de gloire : OpenSea, Rarible ou encore Objkt. Mais plus encore pour OpenSea, dont la société éponyme a été créée par Devin Finzer et Alex Atallah à New York en décembre 2017. Elle deviendra rapidement la principale place de marché pour les jetons non-fongibles (NFT), assurant à elle seule près de 90 % des transactions au meilleur de sa forme en janvier 2022 – d’après Dune Analytics et Binance Research. A cette date, il y a près de deux ans maintenant, la valorisation d’OpenSea en tant que licorne atteignait son pic, à 13,3 milliards de dollars, après avoir levé 300 millions de dollars pour son financement lors d’un tour de table mené par les capital-risqueurs Paradigm Capital et Coatue Management auprès de plusieurs investisseurs (parmi lesquels Animaco Brands, A16z Crypto/ Andreessen Horowitz, …). Mais sous l’effet conjugué de l’effondrement du marché mondial des NFT l’an dernier (2) et de la remise en cause de sa position dominante par le challenger Blur lancé avec succès il y a un an, OpenSea a perdu de sa superbe.

La société newyorkaise Ozone Networks a confirmé le 3 novembre au site spécialisé Decrypt qu’il supprimait la moitié de ses effectifs, passant de 200 à 100 employés (3). De plus, le 7 novembre, le site The Information a révélé que Coatue Management a réduit de près de 90 % sa participation dans le capital d’OpenSea (4). La valorisation de cette ex-« crypto-trésor » (5) ne dépasserait pas 1,4 milliard de dollars, soit environ neuf fois moins qu’en janvier 2022. Le fonds newyorkais Coatue s’est aussi massivement désengagé de la société MoonPay, une fintech dédiée à la crypto et partenaire d’OpenSea. Le marché baissier – bear market, disent les investisseurs – l’est depuis l’éclatement des bulles « NFT » et « Crypto » fin 2021. Au premier trimestre 2022, le tracker canadien NonFungible constatait alors les dégâts sur un an : le nombre des ventes de NFT sur l’ensemble de la blockchain Ethereum – sur laquelle s’appuient de nombreuses plateformes (OpenSea, Rarible, Sorare, Polygon, The Sandbox, Cryptokitties, Audius, Shiba Inu, …) – avait chuté de presque moitié (47 %) à 7,4 millions et le nombre de d’acquéreurs de près d’un tiers (31 %) à un peu plus 1,1 million (6). L’année 2021 restera l’année de tous les records pour les NFT : 27,4 millions de ventes pour 17,7 milliards de dollars, impliquant plus de 2,3 millions d’acquéreurs. Les collections Bored Apes et Cryptopunks ont défrayé la chronique, sans parler de l’œuvre numérique « Everydays: the First 5.000 Days », adjugée aux enchères chez Christie’s le 11 mars 2021 plus de 69,3 millions de dollars (7).
Il faut dire que le « krach » du marché des jetons non fongibles (8) s’inscrivait dans un contexte d’inflation, de remontée des taux d’intérêt obligataires et de guerre, impactant aussi le Nasdaq (la Bourse newyorkaise de valeur technologique à forte croissance) et les cryptomonnaies (au premier rang desquelles le bitcoin). En valeur, le record journalier avait été atteint le 24 septembre 2021 avec 224.768 ventes ce jour-là pour une valorisation totale de 78,3 millions de dollars. Quant au nombre de vendeurs ou d’acquéreurs actifs de ces tokens de propriété, c’està-dire les utilisateurs détenteurs de portefeuilles actifs (active wallets), il s’était réduit à beau de chagrin : 12.000 au 26 mai 2022 comparés aux quelque 120.000 de l’automne 2021. Aujourd’hui, le marché mondial des NFT est toujours loin d’être au mieux de sa forme.

Son rival Blur prend la tête du marché
Cela n’a pas empêché une nouvelle place de marché, Blur, apparue en octobre 2022, de déloger OpenSea de la première place en s’arrogeant – d’après Dune à début novembre (9) – près de 70 % des transactions de jetons non-fongibles. OpenSea a été relégué à moins de 20 % de parts de marché en volume. Parmi les atouts de Blur : une faible commission de 0,5 % prélevée sur les opérations, contre 2,5 % pour OpenSea. Et – d’après The Block – la cryptomonnaie Blur, elle, a bondi après l’annonce des licenciements d’OpenSea pour atteindre une capitalisation de 402,5 millions de dollars (10). En attendant que le marché des NFT rebondisse. @

Charles de Laubier

Tuned Global tire les ficelles du streaming musical

En fait. Le 11 novembre, Virginie Chelles, vice-présidente et directrice marketing communication de Tuned Global, a confirmé à Edition Multimédi@ que le spécialiste australien des applications de streaming musical en marque blanche, ou via API, poursuit son déploiement en Europe, y compris en France.

En clair. Ils ont leur propre application de streaming : Coca Cola, Delta Airlines, Pizza Hut, Lululemon, Samsung et même Universal Music, Warner Music et Sony Music. Sans avoir les inconvénients et les coûts des Spotify, Deezer et autres Apple Music, lesquels doivent négocier directement auprès des multiples producteurs de musique et labels. Se sont aussi lancées facilement les « applis » de streaming musical Tieme Music et Waw Musik, conçues en France pour l’Afrique, respectivement au Ghana et en Côte d’Ivoire.
En Allemagne, Sony Music propose son appli audio Hörspiel Player pour raconter des histoires. Au Royaume-Uni, trois services de musique en ligne ont vu le jour sans difficultés : Reactional Music pour développeurs de jeux vidéo, MediMusic pour soigner avec de la musique, et Pure Energy pour faire des exercices sportifs en musique. Autre exemple : au Danemark, l’opérateur télécoms Tusass (1) va à son tour lancer son propre service de musique en streaming. Quel est le point commun entre ces différents services ? Tous sont clients de Tuned Global, fournisseur australien de solutions clé-en-main, pour entreprises et organisations, de streaming de musique, d’audio voire de vidéo. Pour lancer son propre « Spotify », une société peut ainsi se procurer auprès de Tuned Global un service de streaming en marque blanche, ou les API (2) et les flux de métadonnées (3)) nécessaires à son développement.

Bien que le nouveau service à la demande n’aura pas l’autorisation des maisons de disques pour être disponible dans le monde entier, il pourra néanmoins accéder à un catalogue de plus de 100 millions de titres (4). « Nos clients accèdent à ces catalogues à condition d’avoir signé des accords de licences avec ces labels, et nous pouvons les aider dans cette démarche », nous précise Virginie Chelles. Le fournisseur australien, basé à Melbourne et cofondé en 2010 par son actuel directeur général Con Raso, s’est déployé à San Francisco, Londres et maintenant à Paris. « Nous sommes présents en France depuis janvier 2023, à la suite de ma relocalisation et après avoir travaillé en Australie pour Tuned Global depuis 2014 », indique Virginie Chelles. Par ailleurs, en mars dernier, l’australien a racheté la société suédoise Pacemaker, un de ses clients ayant développé pour DJ une appli de mixage fonctionnant à l’IA. Tuned Global investit aussi le Web3 : NFT et métavers. @