Protection des données : après 5 ans de mise à l’épreuve du RGPD, son réexamen sera le bienvenu

En attendant le réexamen en 2024 du règlement sur la protection des données (RGPD), les entreprises peinent à remplir certaines de leurs obligations, comme celle de transparence envers les utilisateurs, et doivent faire face au détournement du droit d’accès aux données et à la déferlante de l’IA.

Par Sandra Tubert, avocate associée, Algo Avocats

Entré en application le 25 mai 2018, deux ans après son entrée en vigueur afin de laisser aux entreprises le temps nécessaire pour se mettre en conformité, le règlement européen sur la protection des données (RGPD) affichait des objectifs ambitieux (1). La couverture médiatique dont il a fait l’objet a permis de sensibiliser les Européens à la protection de leurs données à caractère personnel, mais également au RGPD de s’imposer comme une référence pour les Etats étrangers ayant adopté une loi similaire. Pour autant, avec un recul d’un peu plus de cinq ans, le RGPD peine à remplir pleinement certains des objectifs fixés.

Internautes concernées mieux informés
Dans la lignée de la directive « Protection des données personnelles » de 1995 qui l’a précédée (2), le RGPD n’a pas choisi la voie de la patrimonialisation des données à caractère personnel. Le législateur européen n’a en effet pas créé de droit à la propriété sur les données à caractère personnel, mais s’est plutôt orienté vers une approche de protection des données permettant aux personnes concernées d’avoir une certaine maîtrise de l’utilisation faite de leurs données à caractère personnel. Deux objectifs principaux ont été associés à cette approche : renforcer la transparence sur les traitements réalisés et fournir des droits supplémentaires aux personnes concernées. C’est ainsi que le RGPD est venu renforcer l’obligation faite aux responsables du traitement de fournir une information détaillée sur les traitements mis en œuvre (3). L’objectif affiché était louable : une transparence accrue afin de permettre aux individus de comprendre en amont l’utilisation envisagée de leurs données par les entreprises et ainsi d’en avoir la maîtrise en leur laissant la possibilité d’effectuer un choix éclairé : refuser la communication de leurs données, s’opposer à certains traitements, ou bien encore donner leur consentement à la réalisation de certaines activités.
En pratique, les entreprises ont l’obligation de fournir l’intégralité des informations prévues par le RGPD de façon concise, transparente, compréhensible et aisément accessible, en utilisant des termes clairs et simples. Or répondre à ces impératifs de manière conforme à ce qui est attendu par les autorités de contrôle – comme la Commission nationale de l’informatique et des libertés (Cnil) en France – est l’une des premières difficultés que cinq ans de pratique du RGPD ont fait émerger. En effet, les organisations ont des difficultés à concilier les exigences de fourniture d’une information exhaustive et très technique – notamment concernant les bases légales du traitement et les garanties fondant les transferts des données hors de l’Union européenne (4) – avec celles de clarté et de concision. Ainsi, au titre des effets pervers de cette obligation de transparence accrue, les citoyens européens font face à des politiques de confidentialité toujours plus longues, rédigées en des termes trop techniques ou trop juridiques. De l’autre côté, les autorités de protection des données n’hésitent pas à sanctionner les manquements à cette obligation, puisque le « défaut d’information des personnes » figure parmi les manquements les plus fréquemment sanctionnés par la Cnil (5).
Cette obligation a été couplée à la fourniture de droits supplémentaires aux personnes, toujours dans une optique de leur offrir une meilleure maîtrise de leurs données. En pratique, le RGPD a repris les droits existants depuis la directive « Protection des données personnelles » (droits d’accès, de rectification, d’opposition), consacré le droit d’effacement (6) et créé de nouveaux droits (droits à la limitation du traitement et à la portabilité des données). La sensibilisation du grand public à l’existence de ces droits, grâce notamment aux actions de la Cnil et au traitement médiatique, ont eu pour effets la réception, par les entreprises, de demandes fondées sur les droits issus du RGPD de plus en plus nombreuses. Par ricochet, les autorités de protection des données ont, elles aussi, vu le nombre de plaintes déposées auprès de leurs services augmenter considérablement (7). Ainsi, la Cnil a reçu 12.193 plaintes en 2022 contre 7.703 en 2016. L’objectif fixé par le RGPD semble donc atteint sur ce point.

Droit d’accès : instrumentalisation
Néanmoins, ces dernières années ont également été témoin du détournement du droit d’accès, aussi bien dans la sphère sociale que commerciale. En effet, les entreprises reçoivent de plus en plus de demandes de droit d’accès dont l’objectif n’est pas de vérifier l’existence et la licéité du traitement des données, mais au contraire de se constituer des preuves dans le cadre d’un précontentieux ou d’un contentieux à l’encontre de l’entreprise. Cette instrumentalisation est parfaitement connue des autorités qui ont toutefois réaffirmé (8) que, dans le cadre de l’évaluation des demandes reçues, le responsable du traitement ne devait pas analyser l’objectif du droit d’accès en tant que condition préalable à l’exercice de ce droit et qu’il ne devait pas refuser l’accès au motif que les données demandées pourraient être utilisées par la personne pour se défendre en justice. Les entreprises n’ont ainsi d’autres choix que de donner suite à ces demandes, en restreignant la nature des données communiquées aux seules données relatives à la personne concernée et en veillant à ne pas porter atteinte aux droits des tiers (9).

Des obligations de sécurité renforcées
La protection des données à caractère personnel passant nécessairement par la sécurité de celles-ci, le RGPD est venu renforcer les obligations à la charge des entreprises au moyen de deux mécanismes assez efficaces : l’obligation pour les responsables du traitement de notifier les violations de données aux autorités de contrôle (10), voire directement aux personnes concernées, respectivement lorsqu’elles présentent des risques ou des risques élevés pour les personnes; l’obligation pour les responsables du traitement et les sous-traitants (11) de mettre en œuvre des mesures de sécurité appropriées aux risques présentés par le traitement.
Il est assez difficile de déterminer si les objectifs de sécurisation des données fixés par le RGPD sont atteints. Néanmoins, dans un contexte où les attaques par rançongiciel (ransomware) se multiplient chaque année (12), les autorités de contrôle sont particulièrement vigilantes quant au respect de ces deux obligations. En témoigne notamment le fait qu’en 2022, un tiers des sanctions prononcées par la Cnil concernait un manquement à l’obligation de sécurité. Ce même manquement a conduit cette dernière à prononcer sa première sanction publique à l’encontre d’un sous-traitant (13), un éditeur de logiciel, pour un montant de 1,5 million d’euros. Elle n’a pas non plus hésité à sanctionner une entreprise qui n’avait pas informé les personnes concernées de la violation de données intervenue, alors qu’elle présentait un risque élevé pour ces dernières.
Sur le respect de l’obligation de notification des violations de données, il est assez difficile de tirer de réels enseignements des chiffres disponibles, même si l’on constate des disparités importantes quant au nombre de notifications de violation de données réalisées chaque jour en fonction des pays. A titre d’exemple, il y a environ 14 notifications par jour en France, contre 27 notifications par jour au Royaume-Uni.
Cette disparité se retrouve également dans le nombre de sanctions prononcées chaque année par les autorités de contrôle et l’approche suivie par ces dernières. Si l’autorité espagnole prononce énormément de sanctions, l’autorité irlandaise est régulièrement épinglée (y compris par ses homologues) pour sa clémence et le peu de sanctions prononcées depuis l’entrée en application du RGPD, alors même qu’elle fait office d’autorité chef de file de la plupart des GAFAM (14). C’est finalement sur ce point que le RGPD peine à convaincre et à remplir pleinement ses objectifs, à savoir inciter les entreprises à se mettre en conformité au moyen d’un arsenal répressif dissuasif. En effet, à l’exception des quelques fortes sanctions (dont la dernière en date de 1,2 milliard d’euros à l’encontre de Meta), prononcées principalement à l’encontre des GAFAM et des géants du Net, les sanctions à l’encontre des sociétés sont moins fréquentes que ce qui était escompté par les associations de protection des données. Et les montants des sanctions financières sont assez éloignés des montants maximums encourus (4 % du chiffre d’affaires mondial consolidé). En France, en dehors des sanctions prononcées à l’encontre des GAFAM (dont beaucoup pour des manquements en matière de cookies, non régulés par le RGPD) et très récemment de Criteo (40 millions d’euros), le montant des sanctions prononcées par la Cnil sur le fondement du RGPD oscille depuis cinq ans entre 125.000 et 3 millions d’euros (15).
L’association Noyb (16), à l’origine de nombreuses sanctions prononcées en Europe au cours des cinq dernières années, dénonce une certaine résistance des autorités de contrôle et des tribunaux nationaux dans l’application effective du RGPD (17). Elle appelle à suivre l’initiative de la Commission européenne d’adopter un règlement sur les règles de procédure relatives à l’application du RGPD (18), ce qui permettrait selon Noyb d’uniformiser l’approche procédurale des autorités et ainsi de favoriser une meilleure application du RGPD.
Par ailleurs, si les entreprises ont pu craindre la multiplication des actions de groupe en matière de protection des données, cette modalité d’action est à l’heure actuelle peu utilisée par les associations de protection des données. En France, seulement deux actions de groupe ont été portées devant les juridictions : l’ONG Internet Society France contre Facebook et l’association UFC-Que-Choisir contre Google. Ce qui pourrait changer au regard des dernières annonces faites par Noyb suite à l’entrée en application des dispositions issues de la directive « Recours collectifs » de 2020 (19).

Vers un réexamen du RGPD en 2024
Enfin, le paysage législatif européen pourrait également avoir un impact sur l’application du RGPD. En effet, plusieurs textes européens adoptés récemment (DSA, DGA) ou en cours d’adoption (DA, AIA) ont des champs d’application recoupant celui du RGPD, ce qui va notamment nécessiter de veiller à garantir leurs bonnes articulations. A cette occasion, ou au titre de l’article 97 du RGPD (réexamen tous les 4 ans à compter du 25 mai 2020), il serait souhaitable de voir le législateur européen adresser certaines des difficultés rencontrées par les entreprises dans la mise en application pratique du RGPD. @

Pourquoi Orange, Deutsche Telekom, Telefónica et Vodafone lancent leur adtech Utiq en Europe

Lancée le 10 février après avoir obtenu le même jour le feu vert de la Commission européenne qui n’y voit « aucun problème de concurrence », la co-entreprise Utiq d’Orange, Deutsche Telekom, Telefónica et Vodafone cherche à obtenir le consentement publicitaire des mobinautes.

Les cookies sont morts, vive l’identifiant mobile ? Les géants du Net avaient imposé le dépôt de cookies publicitaires sur les terminaux pour traquer les internautes sur le Web et les mobiles. Des opérateurs télécoms pensent avoir trouvé l’alternative aux cookies, voués à disparaître, avec un identifiant numérique associé à l’adresse IP de chaque mobinaute (mais pas à sa carte SIM). Le consentement préalable et obligatoire des utilisateurs, avant de leur envoyer des publicités ciblées, sera recueilli par les opérateurs télécoms.

Identifiant mobile publicitaire
Basée en Belgique, à Bruxelles, la coentreprise Utiq – détenue à parts égales (25 % du capital) par ses cofondateurs Deutsche Telekom, Orange, Telefónica et Vodafone (initiateur du projet) – veut être un tiers de confiance dans la publicité numérique en Europe. La plateforme Utiq, ouverte « à tous les autres opérateurs télécoms européens », se veut aussi exemplaire dans la protection des données, au regard de la législation applicable par les Vingt-sept à travers le règlement général RGPD et la directive ePrivacy.
L’adtech des « telcos » permet d’obtenir ou pas de chaque abonné son consentement explicite (opt-in), condition sine qua non pour les marques de faire de la publicité ciblée sur les sites web et dans les applications mobiles (in-app). Utiq sonne d’ailleurs « you » (vous) et « tick » (cocher). « La seule donnée partagée est un jeton numérique [token, ndlr] pseudo-anonymisé et non réversible. Les consommateurs sont libres de donner ou de refuser leur consentement en un seul clic, ainsi que de révoquer tout autre consentement préalablement donné », assure la coentreprise dirigée par Marc Bresseel (photo de gauche), un ancien IBMeur ayant passé ensuite quinze ans chez Microsoft Advertising, suivis de moins de deux ans chez Interpublic (IPG Mediabrands), quatrième groupe mondial de publicité. Après des tests menés sous son ex-nom « Trust PID » durant des mois en Allemagne (avec Axel Springer, RTL et IQ Digital) et en Espagne, Utiq a créé fin mai sa troisième filiale, cette fois en France, basée à Boulogne-Billancourt et dirigée par Sophie Poncin (photo de droite). Contactée par Edition Multimédi@, celle-ci nous indique avoir démissionné de chez Orange, où elle a passé quinze ans, notamment en tant que directrice déléguée d’Orange Advertising, après avoir été moins de deux ans chez Google, et après huit ans chez France Télévisions Publicité (1). Des tests en France avec des marques et des médias auront lieu en juillet et en septembre, avec Orange, Bouygues Telecom et SFR, en attendant Free. L’Italie et, en dehors de l’Union européenne, le RoyaumeUni ont aussi leur filiale Utiq. D’autres pays européens suivront à partir de 2024. « Utiq est une initiative paneuropéenne visant à accompagner notre secteur vers plus de responsabilité, par le biais d’un consentement qui soit volontaire, clair et informé », a déclaré Marc Bresseel le 6 juin. Interrogé sur une éventuelle introduction en Bourse, il nous répond : « Il n’y a aucun plan en ce moment de faire une IPO [Initial Public Offering]. Il faut vraiment lancer le service, l’étendre au reste de l’Europe. Après, les actionnaires décideront de la stratégie d’investissement ».
Cette « solution mutualisée multi-opérateurs de publicité digitale et de marketing digital » permet aux « telcos » de tenter de reprendre la main sur le marché de la publicité numérique dominé par Google et Facebook. Utiq a noué un partenariat européen exclusif avec la société danoise Adform, spécialiste de la publicité programmatique. Il s’agit d’une plateforme d’intermédiation publicitaire dite DSP (Demand Side Platform) pour l’achat d’espaces publicitaires par les annonceurs et agences de publicité (2). « Les annonceurs peuvent désormais s’engager sereinement dans une stratégie cookieless [sans cookies tiers, ndlr], tout en ayant la certitude de bénéficier des normes européennes les plus rigoureuses en matière de gestion du consentement et de traitement des données personnelles », explique Alexandra Jarry-Bourne, vice-présidente chez Adform.

Reste convaincre les médias en ligne
Pour l’heure, l’accueil d’Utiq de la part d’éditeurs et de médias semble plutôt timoré, comme l’a révélé mi-juin Le JDNet. Certains sont « sceptiques » sur le double opt-in (consentement Utiq avec logo de l’opérateur télécoms, puis consentement de l’éditeur si ce n’est pas déjà fait). « Cela va augmenter mon taux de rebond [visiteurs quittant aussitôt le site web, ndlr] », craint un acteur sous couvert d’anonymat. Un autre se demande pourquoi une exclusivité avec une seule plateforme d’achat d’espace (Adform). Audelà de l’« opacité » (3), une inconnue demeure : quelle commission vont prendre les opérateurs télécoms ? Sophie Poncin a tenté de rassurer (4), sans donner de tarifs, ni à Edition Multimédi@. @

Charles de Laubier

Majorité numérique à 15 ans harmonisée en Europe ?

En fait. Le 28 juin, la proposition de loi « visant à instaurer une majorité numérique et à lutter contre la haine en ligne » a été définitivement adoptée en commission mixte paritaire par députés et sénateurs. L’âge de 15 ans pour les réseaux sociaux va-t-il être harmonisé au niveau des Vingt-sept ?

En clair. Maintenant que la loi française « Majorité numérique » a été adoptée le 28 juin, obligeant les réseaux sociaux et plateformes numériques à vérifier non seulement que leurs jeunes utilisateurs ont bien l’âge de 15 ans pour les utiliser, mais aussi à obtenir une autorisation parentale en dessous de cet âge-là, la Commission européenne devra donner son avis. Le gouvernement français lui a en effet notifié la proposition de loi telle qu’adoptée, afin d’avoir le feu de Bruxelles qui doit vérifier que cette législation est bien conforme au droit de l’Union européenne.
Une fois le blanc-seing de la Commission européenne obtenu, le gouvernement fixera par décret une date d’entrée en vigueur de la loi, « [date] qui ne peut être postérieure de plus de trois mois à la date de réception par le gouvernement de la réponse de la Commission européenne ». L’harmonisation de la majorité numérique en Europe ne semble pas prévue, le règlement général sur la protection des données (RGPD) laissant le loisir aux Etats membres de fixer cette majorité numérique entre 13 et 16 ans (1). Cette vérification de l’âge viendra donc s’ajouter à l’obtention du consentement de l’enfant « e-majeur » ou d’un parent pour le traitement des données à caractère personnel – cette obligation concernant la protection de la vie privée étant déjà en vigueur. Pour l’accès aux réseaux sociaux, ce n’est qu’à compter de la date de promulgation de la loi « Majorité numérique » que les plateformes numériques (YouTube, Instragram, WhatsApp, TikTok, Facebook, Google Actualités, …), ainsi que les sites pornographiques premiers visés (2), disposeront de deux ans pour vérifier l’âge de leurs utilisateurs. C’est le président de l’Arcom qui est chargé de veiller à ce que les plateformes numériques mettent en œuvre une « solution technique certifiée pour vérifier l’âge des utilisateurs finaux et l’autorisation de l’un des titulaires de l’autorité parentale de l’inscription des mineurs de moins de quinze ans ».
Au préalable, l’Arcom devra établir un « référentiel » validé par la Cnil (3), auquel les « solutions techniques » devront être conformes. Or la Cnil, qui a préconise depuis juin 2021 le mécanisme de « double anonymat » (4) préféré à la carte d’identité, n’a toujours pas rendu public le bilan du test mené par un laboratoire de l’Ecole polytechnique et le Pôle d’expertise de la régulation numérique (PEReN) de Bercy. @

La 6G n’attend plus que sa feuille de route 2030

En fait. Le 20 juin, la Commission européenne et le Haut représentant de la diplomatie de l’UE ont présenté ensemble la « stratégie européenne de sécurité économique ». Parmi les technologies à promouvoir pour préserver la « souveraineté » européenne : la 6G, face à la Chine qui n’est pas mentionnée.

En clair. Ursula von der Leyen, présidente de la Commission européenne, et Josep Borrell, chef de la diplomatie de l’Union européenne (UE) ont présenté le 20 juin un document commun intitulé « Stratégie européenne de sécurité économique » afin de « minimiser les risques (…) dans le contexte de tensions géopolitiques accrues et de changements technologiques accélérés » et de « promouvoir son avantage technologique dans des secteurs critiques ». Parmi les technologies à promouvoir, le document de 17 pages (1) mentionne notamment la 6G aux côtés de l’informatique quantique (quantum), des semi-conducteurs (chips) et de l’intelligence artificielle (IA).
La Chine n’est pas citée dans ce document, mais le spectre de Pékin plane. En revanche, dans son discours le 20 juin portant sur cette « sécurité économique » de l’Europe, la vice-présidente Margrethe Vestager a explicitement visé la Chine et ses deux équipementiers télécoms mondiaux, Huawei et ZTE (2). Et ce, en rappelant que la Commission européenne a, le 15 juin, fortement incité les Etats membres qui ne l’ont pas déjà fait – comme l’Allemagne voire la France – de ne plus recourir aux technologies 5G de Huawei et ZTE, les deux chinois étant cités nommément par le commissaire européen au Marché intérieur, Thierry Breton (3). Il va sans dire que la 6G est concernée par ce bannissement initié par les Etats-Unis, lesquels font pression sur les pays de l’UE et de l’OTAN pour faire de même. Pour se défendre de tomber dans le protectionnisme, la stratégie européenne de sécurité économique veut aller de pair avec « la garantie que l’Union européenne continue de bénéficier d’une économie ouverte ». La Finlande, elle, a signé le 2 juin avec les Etats-Unis une déclaration commune de « coopération dans recherche et développement de la 6G », sans que l’équipementier finlandais Nokia ne soit mentionné dans le joint statement (4). Nokia comme le suédois Ericsson profiteront de l’éviction politique de leur deux plus grands rivaux chinois.
Reste à savoir si la 6G aura des fréquences harmonisées dans l’ensemble des Vingt-sept. Lors de la 18e conférence européenne sur le spectre, qui s’est tenue les 6 et 7 juin derniers à Bruxelles et à laquelle participait l’Agence nationale de fréquences (ANFR) pour la France, un consensus s’est dégagé sur « la nécessité d’une feuille de route claire sur le spectre pour la 6G à l’horizon 2030 » (5). A suivre. @

La peur envers les intelligences artificielles de type ChatGPT tourne à la psychose irrationnelle

Depuis la pétition signée le 29 mars 2023 par Elon Musk et des experts demandant un moratoire sur le développement des « cerveaux numériques » qui, selon eux, présentent des « risques majeurs pour l’humanité », les craintes se le disputent aux fantasmes quant à l’avenir des « ChatGPT ».

A les entendre ces Cassandres et Nostradamus de ce début du XXIe siècle, « l’extinction de l’humanité » serait pour bientôt. La fin des temps arriverait aussi rapidement que se développent les intelligences artificielles à la ChatGPT, lesquelles sont l’objet de toutes leurs angoisses existentielles. Si l’Apocalypse relève de l’eschatologie religieuse, la « ChatGPTéisation » annoncerait, elle, l’hécatombe de l’être humain. Ce tsunami numérique des IA, à l’apprentissage fulgurant, provoquerait la fin du monde.

L’Homo sapiens supplanté par l’IA sapiens
Les tribunes et déclarations de ces craintifs se suivent et se ressemblent : il faudrait pour les uns instaurer « un moratoire » face aux « risques majeurs pour l’humanité » que constitueraient les IA concurrentielles pour l’homme ; il est temps pour les autres de « prendre au sérieux certains des risques les plus graves de l’IA avancée » menaçant l’espèce humaine d’« extinction ». Les peurs que suscitent les ChatGPT, Midjourney et autres Bard, ainsi que toutes les autres IA surhumaines qui les supplanteront, virent aux fantasmes voire à l’hystérie collective. « L’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale, parallèlement à d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires », clament des dizaines de signataires chercheurs en intelligence artificielle (AI Scientists), professeurs d’universités et personnalités, dont Samuel (Sam) Altman (photo), le cofondateur avec Elon Musk de la start-up OpenAI qui a développé ChatGPT (générateur de textes) et de Dall-E (générateur d’images). Ce sont les deux IA les plus en vue depuis leur lancement respectif fin novembre 2022 et début 2021.
Sam Altman, qui a fait part le 17 mai au Sénat américain de sa peur de voir cette « superintelligence » provoquer de « graves dommages au monde », serait-il devenu malgré lui le pompier-pyromane en chef des IA générative ? La courte déclaration mise en ligne le 30 mai dernier sur le site du Center for AI Safety (1), une ONG américaine dédiée aux « risques IA », est aussi signée par Bill Gates (Gates Ventures) ou encore Grimes (célèbre musicienne). Il y a même le Canadien Geoffrey Hinton (75 ans), professeur émérite d’informatique et chercheur, parfois surnommé le parrain voire le « Dieu le Père » (Godfather)de l’IA et du Deep Learning (apprentissage profond dont se nourrissent les intelligences artificiels). Il s’est distingué le 1er mai dernier en annonçant qu’il quittait Google « pour pouvoir parler des dangers de l’IA ». Et critiquer son ancien employeur dans ce domaine comme l’a suggéré le New York Times (2) ? Que nenni : « Sans considérer comment cela affecte Google. Google a agi de façon très responsable », a-t-il rectifié dans un tweet (3). Geoffrey Hinton, qui aujourd’hui rejoint le cœur de ceux qui parlent de « profonds risques pour la société et l’humanité », a travaillé pendant près d’un demi-siècle sur l’IA générative appliquée aux chatbots, ces robots conversationnels (4) qui terrifient un nombre croissant d’humains. Au risque de conflits d’intérêts, il avait annoncé en mars 2013 – lorsque la firme de Mountain View a racheté son entreprise DNNresearch (5) – qu’il allait « poursuivre [s]es recherches à Toronto et, en même temps, aider Google à appliquer les nouveaux développements en apprentissage profond pour créer des systèmes qui aident les gens ». Il n’avait alors émis à l’époque aucune réserve sur ses travaux…
Elon Musk, pourtant moins frileux dans d’autres domaines industriels où le zéro risque n’existe pas, et qui plus est un des cofondateurs d’OpenAI (d’où il s’est retiré en 2018), a été l’un des milliers de cosignataires de la tribune « AI Pause » (6) parue le 22 mars 2023. Ce texte lançait des cris d’orfraie en disant stop : « Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable et inclure tous les acteurs-clés. Si une telle pause ne peut être mise en œuvre rapidement, les gouvernements devraient intervenir et instituer un moratoire ». Parmi les plus de 31.800 autres signataires : le chercheur français Joseph Sifakis, prix Turing de l’informatique 2007, pour qui « la technologie va trop vite » (7). Sam Altman, lui, n’en est pas signataire…

Réguler, oui ; arrêter l’IA, non
Le patron d’OpenAI, financé à coup de milliards par Microsoft, appelle les Etats à réguler ces IA superintelligentes : pour mieux freiner ses concurrents (comme Google avec Bard) et conforter la position dominante de ChatGPT sur ce tout naissant marché ? Après le Sénat américain le 17 mai, Sam Altman a rencontré le 23 mai Emmanuel Macron (8), puis le lendemain il a menacé de Londres de fermer ChatGPT en Europe si son futur AI Act était trop contraignant ! Avant de se dédire face au courroux du commissaire européen Thierry Breton l’accusant le 25 mai (9) de « chantage ». @

Charles de Laubier