L’incarcération d’un ancien président de la République consacre aussi un média numérique, Mediapart

C’est une condamnation historique d’un ancien président de la République française à de la prison ferme – avec incarcération – dans une affaire que Mediapart a révélée il y a treize ans. La sentence rendue à l’encontre de Nicolas Sarkozy le 25 septembre 2025 est aussi la consécration d’un média en ligne.

Depuis une trentaine d’années que les pure players de la presse en ligne existent, c’est la première fois que l’un d’eux se retrouve sous le feu des projecteurs et consacré pour son journalisme d’investigation – en l’occurrence pour avoir été à l’origine d’une affaire retentissante ayant conduit un ancien président de la République derrière les barreaux – un fait inédit et historique depuis la naissance de la République française en… 1792.
Le média numérique Mediapart, cofondé en 2008 par Edwy Plenel (photo de gauche) et présidé depuis 2024 par Carine Fouteau (photo de droite), s’est déjà fait une renommée avec de grandes enquêtes telles que les affaires Woerth-Bettencourt (2010), Cahuzac (2013), Baupin (2016), Ramadan (2017), Benalla (2019), Perdriau (2022) ou encore Azov/Courtine (2024). Mais cette fois, avec l’affaire Sarkozy-Kadhafi (2012-2025), Mediapart devient le premier nouveau média – qui plus est 100 % digital – à voir un ancien chef d’Etat – Nicolas Sarkozy, 6e président de la Ve République (2007-2012) et le 23e président de toutes les républiques françaises – être écroué (1). Et ce, treize ans après avoir révélé en avril 2012 un financement illégal de la campagne présidentielle de Nicolas Sarkozy en 2007 par des fonds provenant du régime libyen de Mouammar Kadhafi. Un scandale d’Etat.

Plus de 10,1 millions de visites par mois
Mediapart, c’est plus de 245.000 abonnés numériques et ce nombre ne cesse de grandir au fur et à mesure que les affaires révélées s’enchaînent. A fin décembre 2024, ils étaient 233.277, puis, d’après sa directrice de la publication Carine Fouteau au moment de la présentation des résultats annuels en mars 2025, les 245.000 abonnés ont été atteints. Mais le site de presse en ligne mediapart.fr, c’est aussi plus de 10,1 millions de visites par mois (2), d’après le relevé de Similarweb, dont près de 12 % provenant hors de France (3). Pour cette année 2025, le chiffre d’affaires de l’entreprise – employant plus de 150 personnes – devrait franchir la barre des 25 millions d’euros de chiffre d’affaires – pour dépasser les 27,7 millions d’euros si l’on applique la même croissance de 11,4 % constatée sur l’année précédente. « Notre modèle économique ne Continuer la lecture

Entre l’AI Act, le RGPD, le droit d’auteur et la protection des bases de données, l’articulation est cornélienne

Les fournisseurs de système d’IA et les entreprises utilisatrices de ces solutions – exploitant quantités de données, personnelles comprises – doivent se conformer à plusieurs réglementations européennes : de l’AI Act au RGPD, en passant les directives « Copyright » et « Bases de données ».

Par Arnaud Touati, avocat associé, et Mathilde Enouf, juriste, Hashtag Avocats

L’AI Act – règlement européen sur l’intelligence artificielle (1) – représente un changement significatif dans la régulation technologique au sein des Vingt-sept. Il ne substitue pas aux régimes existants, mais les enrichit, engendrant une superposition complexe avec le règlement général sur la protection des données (RGPD) et la législation sur le droit d’auteur. Cela nécessite des entreprises de mettre en place une gouvernance juridique intégrée, impliquant juristes, techniciens et responsables de la conformité.

Pas d’IA contre les droits fondamentaux
L’incertitude jurisprudentielle, l’accroissement des obligations et le danger financier associé aux sanctions exigent une vigilance accrue. Cependant, cette contrainte peut se transformer en atout concurrentiel : les entreprises qui réussissent à prévoir et à incorporer la conformité progressive gagneront la confiance de leurs utilisateurs et de leurs partenaires. La capacité des acteurs à convertir ces obligations en normes de qualité et de confiance déterminera l’avenir de l’intelligence artificielle (IA) en Europe. La régulation, plutôt que d’être un simple obstacle, pourrait se transformer en un outil stratégique de souveraineté numérique et de développement durable de l’IA.
Première législation mondiale dédiée à cette innovation technologique, l’AI Act est entré en vigueur le 1er août 2024, mais ses obligations sont mises en œuvre progressivement. Les mesures prohibées ont commencé à s’appliquer en février 2025 ; les normes relatives aux modèles d’IA à usage général ont commencé à s’appliquer en août 2025 (2) ; les règles concernant les systèmes à haut risque seront mises en œuvre en août 2026. Cette mise en application progressive a pour but de donner aux entreprises le temps nécessaire pour s’adapter, tout en se concentrant d’abord sur les risques considérés comme les plus critiques. A l’inverse du RGPD, qui a mis en place en 2018 un cadre uniforme immédiatement applicable à tous les traitements de données, l’AI Act opère (suite) sur la base d’une approche progressive. Cette stratégie illustre le désir du législateur européen de soutenir l’innovation tout en prévenant des disruptions trop violentes pour les acteurs économiques. Elle reflète aussi une reconnaissance de la variété des applications de l’IA, certaines étant avantageuses et peu dangereuses, d’autres risquant d’avoir un impact sévère sur les droits fondamentaux. Il s’agit d’une législation structurante qui ne remplace pas le RGPD ni le droit d’auteur, mais qui s’y superpose. La loi sur l’IA se fonde sur une catégorisation des systèmes d’IA en fonction de leur degré de risque. L’IA s’appuie sur l’exploitation d’une grande quantité de données, dont un bon nombre pourrait être considéré comme des données personnelles. Le RGPD rend obligatoire la détermination d’une base légale pour chaque acte de collecte ou d’utilisation (3). Selon la situation, le traitement peut se baser sur le consentement de l’individu concerné, sur l’exécution d’un contrat, sur un devoir légal, sur la protection des intérêts essentiels, sur une tâche d’intérêt public, ou encore sur le bénéfice légitime du gestionnaire du traitement. Ce fondement peut être considéré pour la formation des modèles. Cependant, il doit toujours être précédé d’une évaluation de proportionnalité et d’un contrôle de compatibilité avec les objectifs initiaux de la collecte.
L’obtention de l’accord est primordiale, particulièrement en ce qui concerne les données sensibles telles que définies par l’article 9, ou lorsque les traitements ne sont pas suffisamment justifiés par une autre base légale. De plus, si les données sont réutilisées pour un but différent de celui qui a motivé leur collecte, le RGPD demande une vérification de la concordance de cette nouvelle finalité (4). Cette évaluation prend en considération le rapport entre l’objectif initial et l’objectif modifié, le contexte de la collecte des données, la nature de ces dernières, les implications pour les individus concernés, ainsi que la présence de sécurités comme le cryptage ou la pseudonymisation.

Le droit de s’opposer au profilage
Le RGPD donne également la possibilité aux Etats membres d’établir des règles spécifiques, en particulier pour les traitements basés sur une obligation légale ou une mission d’intérêt public, afin de définir clairement les conditions de légalité et de structurer les modalités pratiques de leur application. Et toute personne a le droit de ne pas être soumise à une décision exclusivement automatisée, y compris le profilage, si cette décision engendre des conséquences juridiques ou a un impact significatif sur elle (5). Trois exceptions sont prévues à ce principe : la décision peut être valide si elle est indispensable à l’application d’un contrat, si elle est stipulée par la législation de l’UE ou d’un Etat membre, ou si elle repose sur l’accord explicite de l’individu concerné. Quoi qu’il en soit, des assurances particulières doivent être mises en place, notamment le droit d’exiger une intervention humaine, de faire part de ses remarques et de contester la décision.

Délicate soumission à plusieurs textes
De plus, le RGPD proscrit la prise de ces décisions sur des types spécifiques de données sensibles (6), à moins que l’une des exceptions ne soit applicable et que des mesures de protection accrues soient instaurées (7). Cette mesure est particulièrement cruciale pour les systèmes d’IA à risque élevé, notamment dans les domaines du crédit, de l’embauche ou de l’assurance, où la ligne entre automatisation et intervention humaine doit être strictement observée.
Concernant cette fois la propriété intellectuelle, l’AI Act exige une plus grande transparence sur les données utilisées pour la formation, sans toutefois établir un droit de refus. Le choix de sortie cité dans certaines études découle de la directive européenne « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, directive dite « Copyright » (8) : elle établit une dérogation pour l’extraction de textes et de données à des fins scientifiques (9), alors qu’elle permet l’extraction à des fins commerciales, à condition que les détenteurs des droits ne s’y soient pas formellement opposés (10). On peut également mentionner la protection spécifique des bases de données prévue par la directive « Bases de données » de 1996 (11), qui proscrit l’extraction substantielle ou la réutilisation non permise de contenus.
La coordination entre ces divers systèmes d’IA est délicate. Un projet donné peut être soumis à la fois au RGPD, au droit d’auteur, au droit des bases de données et à l’AI Act en même temps. Les obligations peuvent s’accumuler sans forcément être cohérentes entre elles, ce qui contraint les acteurs à adopter une démarche globale de conformité. Cette dernière comprend la sauvegarde des données personnelles, la reconnaissance des droits de propriété intellectuelle, ainsi que les exigences techniques spécifiques au règlement sur l’IA.
Considérons un cas de figure où un générateur de contenus commerciaux utilise des profils d’utilisateurs (RGPD), des articles de presse (droit d’auteur) et des bases documentaires publiques (AI Act). Conformément au RGPD : obligation de communication, protection des droits individuels, assurances pour les transferts internationaux (12). Conformément au « Copyright » : contrôle des licences, observation des opt-out et considération des exceptions. Conformément à l’AI Act : documentation technique, gestion des données, protocoles de traitement des incidents, contrôle humain et évaluation de conformité réalisée par des entités notifiées. En cas d’infractions, l’AI Act instaure un système de sanctions particulièrement dissuasif, qui s’ajoute et parfois se superpose à celui du RGPD, selon trois niveaux de gravité :
La transgression des prohibitions strictes, telles que manipulation subliminale, exploitation de vulnérabilités, notation sociale, usage abusif de la biométrie, etc., expose les opérateurs à une amende qui pourrait s’élever jusqu’à 35 millions d’euros ou représenter 7 % du chiffre d’affaires annuel global de la société, le montant le plus élevé étant pris en compte (13).
Les infractions aux obligations imposées à divers intervenants de la chaîne (fournisseurs, mandataires, importateurs, distributeurs, déployeurs) ou aux entités notifiées, ainsi que les violations des règles de transparence (14), sont passibles d’une amende pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial. En définitive, la communication d’informations fausses, partielles ou induisant en erreur aux instances de régulation peut conduire à une sanction pouvant atteindre 7,5 millions d’euros ou 1 % du chiffre d’affaires.
La réglementation prévoit un régime allégé pour les PME et les start-up, pour lesquels le seuil applicable est le plus bas entre les montants absolus et les pourcentages mentionnés précédemment. L’AI Act précise également les paramètres d’aggravation ou de mitigation pris en compte par les autorités nationales (15). Chaque Etat membre est tenu d’établir des normes procédurales nationales, de définir l’étendue à laquelle les amendes peuvent s’appliquer aux autorités ou institutions publiques, et d’assurer aux opérateurs des voies de recours juridictionnelles effectives.
On prévoit l’émergence des premiers litiges dès 2025, en particulier concernant les pratiques prohibées par l’AI Act (16), en vigueur depuis le 2 février. Dès le 2 août 2026, les conflits pourraient englober les systèmes à haut risque, avec une prolongation jusqu’en 2027 pour certains équipements inclus dans des produits soumis à réglementation, en particulier dans les domaines financier et médical. Etant donné que la Commission européenne a abandonné sa proposition de directive sur la responsabilité civile de l’IA, le cadre repose désormais sur la directive « Responsabilité du fait des produits défectueux » de 2024, qui englobe les systèmes d’IA et doit être mise en œuvre d’ici décembre 2026.

Les entreprises doivent vite se préparer
Pour être prêtes et en conformité, les entreprises doivent mettre en place des procédures internes solides pour anticiper. Cette préparation sera facilitée par des outils utiles tels que des tableaux de comparaison RGPD/AI Act/ Copyright ou des listes de vérification pour assurer la conformité. Quant aux transferts internationaux de données UE-US, ils demeurent un enjeu majeur. Ils restent soumis au RGPD et aux exigences renforcées des arrêts « Schrems », malgré la confirmation fragile en septembre 2025 (17) du Data Privacy Framework. @

Wikipedia dans l’œil du cyclone de l’administration Trump et des conservateurs du monde entier

Wikipedia, qui fêtera ses 25 ans en janvier 2026, est aux prises avec les conservateurs et l’extrême droite qui reprochent à l’encyclopédie en ligne à vocation universelle d’être « orientée à gauche ». Le meurtre du trumpiste Charlie Kirk a relancé les critiques infondées. Elle est aussi une cible en Europe.

(Par ailleurs, Jimmy Wales, son cofondateur, publie le 25 octobre 2025, Les sept règles de la confiance, chez Crown Currency/Penguin Random House)

Israël en guerre à Gaza, invasion de l’Ukraine par la Russie, politique, vaccination contre le covid19, réchauffement climatique, théories du genre, ou encore tout récemment meurtre de Charlie Kirk : les sujets sensibles voire épidermiques ne manquent pas sur Wikipedia, qui s’en tient aux faits, le plus souvent sourcés. Les traitements éditoriaux, qui sont effectués par 100.000 à 200.000 contributeurs « Wikipédiens » par mois dans le monde entier, peuvent agacer la partie la plus conservatrice et réactionnaire parmi les quelques 500 millions de visiteurs mensuels toutes versions confondues.
« Les rédacteurs gauchistes de Wikipedia déforment les faits dans un geste éhonté pour salir Charlie Kirk. […] Le cadrage garantit que toute personne à la recherche de Kirk après son meurtre est confrontée à un récit conçu pour le discréditer », s’est insurgée la chaîne de télévision conservatrice américaine Fox News le 11 septembre (1), soit au lendemain du meurtre de ce militant politique et conservateur américain, très proche du président des Etats-Unis Donald Trump. Elle reproche à l’encyclopédie en ligne très actualisée d’« attaque contre Kirk » en le disant d’emblée « de droite », un « cadrage politisé » que l’on ne retrouverait pas pour des personnalités comparables de la gauche.

Fox s’insurge contre la page « Charlie Kirk »
Mais ce qui agace le plus la chaîne pro-Trump du magnat des médias, le milliardaire australo-américain Rupert Murdoch, c’est ce passage pourtant incontestable : « Allié-clé de Donald Trump, Kirk a promu des causes d’extrême droite et alignées sur Trump. Il a épousé une variété de points de vue controversés, en particulier concernant son opposition au contrôle des armes à feu, à l’avortement et aux droits LGBTQ ; sa critique de la loi sur les droits civiques de 1964 et de Martin Luther King Jr. ; et sa promotion du nationalisme chrétien, de la désinformation sur le covid-19, de la théorie du complot du Grand remplacement et de fausses allégations de fraude électorale en 2020 » (2). Fox est le plus emblématique des médias aux Etats-Unis – la chaîne d’information la plus regardée par les Américains devant CNN et MSNBC – à avoir critiqué Wikipedia. Mais d’autres médias du même bord ont fait de même. Par exemple, le jour même de l’assassinat, le site web NewsBusters à la rhétorique conservatrice a accusé l’encyclopédie en ligne de (suite) biais idéologique dans ses articles : « Les rédacteurs de Wikipedia saccagent une page de Charlie Kirk avec une injection de “désinformation” après une fusillade mortelle » (3).

Jimmy Wales récuse toute partialité
Ce n’est pas la première fois, ni la dernière, que l’encyclopédie libre à but non lucratif et à vocation universelle est pointée du doigt – pour « gauchisme » ou « wokisme » – par la droite et l’extrême droite essentiellement. Le cofondateur Jimmy Wales (photo ci-dessus) défend dès qu’il le peut la neutralité et l’objectivité de Wikipedia, comme ce fut le cas le 8 août dernier lors du Wikimania 2025 à Nairobi, capitale du Kenya (Afrique). « Nous avons un rôle à jouer dans un monde saturé de désinformation, de mésinformation et d’activisme politique. Non, nous, les Wikipédiens, nous restons très calmes. Nous nous contentons de présenter les faits. Nous essayons de rester neutres. Je pense que nous pouvons être une source d’inspiration, peut-être même pour certains journalistes qui devraient savoir mieux faire », a-t-il déclaré lors d’une interview accordée à un journaliste bangladais, Delwar Hossain (4), Wikimédien – c’est-à-dire non seulement contributeur à Wikipedia, en tant que Wikipédien, mais aussi à l’ensemble des projets de la Wikimedia Foundation (Wikimedia Commons, Wikidata Wikivoyage Wiktionary, …).
La fondation Wikimedia a été fondée il y a près de 22 ans par Jimmy Wales, qui a toujours été membre de son conseil d’administration, sans jamais en avoir été président. Et depuis dix ans, il y siège de façon honorifique et permanente en tant que Community Founder Trustee (administrateur fondateur communautaire). L’an dernier, son mandat renouvelable a été reconduit jusqu’au 31 décembre 2027 (5). Ce n’est donc pas lui mais la directrice générale de la Wikimedia Foundation, l’américaine d’origine égyptienne Maryana Iskander (photo ci-contre), qui est tenue de répondre à la lettre datée du 27 août 2025 et cosignée par deux pro-Trump du Parti républicain, James Comer et Nancy Mace. Le premier est président de la commission de contrôle et de réforme du gouvernement (6), à la Chambre des représentants au Congrès des EtatsUnis, tandis que la seconde y est présidente de la sous-commission sur la cybersécurité, les technologies de l’information et l’innovation gouvernementale. Dans leur courrier, ils demandent à la Wikimedia Foundation – qui avait jusqu’au 10 septembre 2025 pour leur répondre – des « documents » concernant « [des] individus (ou comptes spécifiques) agissant comme contributeurs bénévoles sur Wikipedia et ayant enfreint les politiques de la plateforme ». Et ce, dans le cadre de leur « enquête » parlementaire sur « les actions d’opérations étrangères et d’individus au sein d’établissements académiques subventionnés par l’argent des contribuables américains, visant à influencer l’opinion publique aux Etats-Unis ». Les deux trumpistes soupçonnent Wikipedia de parti pris : « Un rapport récent soulève des interrogations inquiétantes quant à des efforts potentiellement systématiques pour diffuser des contenus antisémites ou anti-Israël dans des articles en lien avec les conflits impliquant l’Etat d’Israël (7). Un second rapport décrit des actions menées par des acteurs étatiques hostiles visant à diffuser des messages pro-Kremlin et anticoloniaux vers des publics occidentaux (8), en manipulant à la fois des articles de Wikipédia et d’autres médias utilisés pour entraîner des chatbots à base d’IA » (9). Au-delà, les deux députés du Congrès américain accusent l’encyclopédie en ligne d’« influencer l’opinion publique aux Etats-Unis », de ne pas « empêcher des initiatives intentionnelles et organisées visant à injecter un biais dans des sujets importants et sensibles » ; de « manipulation de l’information […] à des fins de propagande auprès d’un public occidental ». Aussi, ils exigent de la DG Maryana Iskander de leur expliquer quels sont « les outils et méthodes employés par Wikipedia pour identifier et contrer les actions malveillantes qui injectent un biais ou sapent la neutralité de la plateforme ». Le Wikipedia-bashing est indissociable de la montée des extrêmes droites dans le monde, y compris dans l’Union européenne.
Soutien du parti allemand national-conservateur, eurosceptique et anti-immigration qu’est l’AfD, l’homme le plus riche du monde Elon Musk a fait sienne le surnom péjoratif « Wokepedia » dans un tweet qu’il a posté le 24 décembre 2024 : « Arrêtez de faire des dons à Wokepedia jusqu’à ce qu’ils rétablissent l’équilibre de leur autorité éditoriale » (10). Ce néologisque prisé des conservateurs et des identitaires est dérivé de « woke », le terme américain signifiant « éveillé » aux injustices sociales. Il est utilisé de manière critique pour désigner des positions progressistes. Une variante française de ce quolibet, « Wokipédia », est aussi employée par l’extrême droite française, notamment lors de polémiques début 2022 à propos l’ancien éditorialiste du Figaro Eric Zemmour, catholique devenu politicien antimusulman d’extrême droite (11). « Wokipedia : le bastion d’extrême-gauche » a aussi été sur la chaîne CNews le 18 janvier 2025 le sujet d’un édito du journaliste d’extrême droite Erik Tegnér (exFN, ex-UMP et ex-LR), fondateur et directeur de la rédaction du média identitaire Frontières (12).

Le Point s’en est pris à un Wikipédien
L’expression « Les faits sont têtus », bien connue dans le journalisme (13), pourrait être le slogan de Wikipedia. Les éditeurs de cette plateforme de la connaissance universelle libre et ouverte sont la plupart anonymes mais leurs écrits, eux, sont le plus souvent sourcés. Mais cela ne suffit pas à ces détracteurs, comme Le Point qui, dénonce Wikimédia France (14), a intimidé un bénévole qui avait modifié sur Wikipédia l’article concernant cet hebdomadaire français de droite. @

Charles de Laubier

Ce qu’a répondu TikTok au rapport Delaporte-Miller

En fait. Le 16 septembre, après avoir contacté Marlène Masure, directrice des contenus de TikTok EMEA, Edition Multimédi@ a reçu de l’agence Le Public Système l’intégralité de la réaction de TikTok au rapport parlementaire très remonté contre ce réseau social. Nous la mettons entièrement en ligne.

En clair. La réaction de TikTok a été publiée partiellement par les médias le 11 septembre 2025. Edition Multimédi@ s’est procuré le statementintégral avec ses « informations complémentaires » que nous mettons en ligne – lien en note (1). « Nous rejetons catégoriquement la présentation trompeuse faite par la commission [d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs], qui cherche à faire de notre entreprise un bouc émissaire face à des enjeux qui concernent l’ensemble du secteur et de la société. TikTok mène depuis longtemps une politique exigeante en matière de sécurité et de protection de ses utilisateurs, avec plus de 70 fonctionnalités et paramètres spécifiquement conçus pour assurer la sécurité et le bien-être des adolescents et des familles sur notre plateforme », a déclaré le porte-parole de la filiale du chinois ByteDance.
Dans leur rapport à charge adopté le 4 septembre (2), les députés Arthur Delaporte (PS) et Laure Miller (EPR) n’y sont pas allés de main morte pour clouer au pilori le réseau social. Les sept dirigeants de TikTok auditionnés en juin 2025 (3) ont dû être (suite) stupéfaits par tant de dramatisation. TikTok aurait des « effets dévastateurs sur la santé mentale des mineurs » et serait « un terrain propice » à leur dégradation mentale. Pire : « TikTok [serait] un outil d’amplification mortifère des troubles psychiques entre les mains de nos enfants ». Il serait « une addiction » avec « des phénomènes de dépendance bien établis », voire « un poison lent » aux « effets délétères sur la santé physique des enfants ». Bref, « le grand perturbateur » d’enfants, où « la désinformation [est] le vice dans le vice ».
Bigre ! L’auteur de ces lignes s’est précipité auprès de sa fille – 18 ans, inscrite sur TikTok, ex-Musical.ly, depuis ses 13 ans – pour savoir si elle allait bien ! En parfaite santé mentale et physique, Violette a pouffé de rire. Au lieu d’aller jusqu’à « interdire des réseaux sociaux aux moins de 15 » (recommandation n°1 du rapport), ni « établir, pour les 15-18 ans, un couvre-feu numérique de 22 heures à 8 heures » (recommandation n°32), la jeune étudiante temporise : « A la limite, une interdiction d’accès avant 14 ans au lieu de 13 »… Au-delà du procès pour « mise en danger » intenté par le député Delaporte, c’est l’issue de l’enquête lancée en décembre 2024 par la Commission européenne qui importe le plus à TikTok. @

Le futur OpenAI sera plus lucratif que non lucratif

En fait. Le 11 septembre, dans un communiqué commun laconique, Microsoft et OpenAI ont annoncé la signature d’un « protocole d’accord non contraignant pour la prochaine phase de [leur] partenariat » en vue d’un « accord définitif ». Ce qu’ils n’évoquent pas, c’est la prochaine évolution d’OpenAI.

En clair. Près de dix ans après avoir été fondée (1) en tant qu’organisation à but non lucratif par Sam Altman, Elon Musk, Ilya Sutskever ou encore Wojciech Zaremba, la start-up OpenAI – devenue grâce à l’IA générative ChatGPT une méga-licorne (non cotée et valorisée 300 milliards de dollars) – s’apprête à faire évoluer sa structure et son capital. Cette société mère à but non lucratif – OpenAI Inc. – détient et contrôle la société commerciale à but lucratif mais à profit plafonné OpenAI LLC (ex-OpenAI LP), créée en mars 2019.
C’est cette entité (la lucrative) qui va être transformée en une société d’intérêt public (PBC), un statut particulier reconnu dans certains Etats américains dont le Delaware où la future société OpenAI PBC devrait être enregistrée (sinon en Californie où des discussions ont aussi lieu). Quel est l’intérêt d’une « PBC » (Public Benefit Corporations) ? Elle combine dans ses statuts à la fois une mission d’intérêt public que ses actionnaires doivent respecter (l’IA doit bénéficier à l’humanité), et la possibilité de lever des fonds comme n’importe quelle autre entreprise (2). Le capital de cette future PBC fait l’objet de toutes les convoitises : après avoir investi environ 13 milliards de dollars au total dans la lucrative OpenAI LLC depuis 2019, Microsoft ne voulait pas d’un strapontin dans la future OpenAI PBC. La firme de Redmond pourrait obtenir « environ 30 % » du capital de cette nouvelle entité lucrative (moyennant 170 milliards de dollars au regard de sa valorisation actuelle), aux côtés de (suite) la non lucrative société mère OpenAI Inc, laquelle pourrait détenir « entre 20 % et 30 % » du capital de la PBC, soit une participation au capital d’« au moins 100 milliards de dollars », selon le Financial Times (3).
A l’issue des négociations particulièrement difficiles – mais sur la bonne voie si l’on en croit le communiqué laconique commun OpenAI-Microsoft publié le 11 septembre sur la signature d’un « protocole d’accord non contraignant » (4) –, la future OpenAI PBC pourrait atteindre une valorisation de 500 milliards de dollars – contre les 300 milliards actuellement. L’accord définitif pourrait être signé d’ici la fin de l’année, si le procès intenté par le cofondateur Elon Musk – décidé à bloquer la restructuration – ne venait pas contrarier l’issue de l’opération. Quoi qu’il en soit la non lucrative OpenAI Inc. gardera le contrôle de l’ensemble et nommera la majorité du conseil d’administration. @