Impacts environnementaux : le numérique aggrave

En fait. Le 10 février, l’Arcep a publié sur son site le livret « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » organisé le 7. Le 6, une tribune dans Le Monde alertait sur « le désastre écologique » qu’accélère l’IA. Le 4, Green IT a remesuré l’impact du numérique.

En clair. Pendant que le président de la République était le maître de cérémonie du « Sommet pour l’action sur l’IA » qu’il organisait au Grand-Palais à Paris du 6 au 11 février (dont les deux derniers jours en rencontres diplomatiques), pas moins de neuf institutions publiques et universitaires – dont l’Arcep et l’Ademe (1) – chapeautaient, elles, un « Tribunal pour les générations futures » sur les enjeux numériques et environnementaux. A l’initiative de l’éditeur Usbek & Rica, cette conférence « procès » (dixit ses organisateurs) s’est tenue le 7 février à La Sorbonne à Paris pour juger de la question « Y a-t-il une IA pour sauver la planète ? ».
Ainsi, d’un côté, il y avait les annonces à très gros budget faites le 9 février par Emmanuel Macron : 109 milliards d’euros pour l’IA en France sur cinq ans, avec de nouveaux data centers à construire sur 35 sites identifiés, alors que l’Hexagone compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). A ces 109 milliards français pour l’IA sont venus s’ajouter (suite)

Le grand remplacement des moteurs de recherche traditionnels par des IA génératives est… poussif

Il y a un an, l’institut d’études Gartner prévoyait d’ici 2026 une baisse de 25 % du volume des requêtes sur les moteurs de recherche traditionnels au profit des robots conversationnels IA (chabots) et autres IA génératives. Or la position dominante historique de Google reste toujours aussi forte.

La suprématie de Google (filiale d’Alphabet) sur le marché mondial des moteurs de recherche reste quasiment inchangée à fin janvier 2025 par rapport à il y a un an, et malgré la déferlante des IA génératives et autres chabots boostés à l’intelligence artificielle. D’après StatCounter, le moteur de recherche Google s’arroge encore 89,78 % de part de marché mondiale dans le search (1). L’érosion est infinitésimale comparé aux 91,47 % observés il y a un an, en janvier 2024. Les rivaux restent de petits poucets, avec Bing de Microsoft à 3,94 %, le russe Yandex à 2,74 %, Yahoo à 1,27 %, le chinois Baidu à 1,71 % et DuckDuckGo en-dessous de 1 %.

Google Search : chute de 25 % d’ici 2026 ?
Le maintien de la position dominante de Google a de quoi interpeller, alors que les IA génératives en tout genre ne cessent de défrayer la chronique et que les chat-search veulent en découdre avec le search traditionnel. Les ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity (Perplexity AI) et autres Copilot (Microsoft), sans parler de DeepSeek (société chinoise DeepSeek AI), ne semblent pas avoir entamé – même d’un iota – la suprématie de Google. L’accès google.com reçoit à lui seul plus de 83 milliards de visites chaque mois – 83,26 milliards sur décembre 2024, selon SimilarWeb. Viennent s’ajouter les accès locaux comme google.fr, (suite)

L’enjeu de la base légale et de l’information dans la conformité au RGPD des fournisseurs d’IA

Depuis peu, les fournisseurs de systèmes d’intelligence artificielle (IA) font l’objet d’une attention accrue de la part des autorités de contrôle européennes, lesquelles analysent leur conformité au règlement sur la protection des données (RGPD), de l’information des personnes à la base légale.

Par Sandra Tubert, avocate associée et Alicia Forgues, docteure en droit, Algo Avocats

Après avoir sanctionné OpenAI en décembre 2024 pour ses manquements au RGPD en lien avec son IA générative ChatGPT (1), l’autorité italienne de protection des données – la GPDP (2) – vient cette fois d’ordonner, le 30 janvier dernier (3), le blocage immédiat de l’application et du site web DeepSeek en Italie en raison de manquements présumés au RGPD. Avant d’ordonner la limitation du traitement, la GPDP avait adressé le 28 janvier une demande d’informations à DeepSeek, afin qu’elle précise les données traitées, les finalités poursuivies, leurs bases légales, le lieu de stockage, ainsi que la typologie de données utilisées pour entraîner les modèles d’IA, leurs sources et les modalités d’information des personnes (4).

Modèles d’IA, systèmes d’IA et données
D’autres « Cnil » européennes ont ouvert des enquêtes. Si le recours à l’IA n’impacte pas véritablement les réponses à apporter à certaines de ces questions, les bases légales de traitement et modalités d’information des personnes posent plus de difficultés lorsqu’il s’agit des traitements mis en œuvre dans le cadre de l’entraînement des modèles d’IA. En effet, ces derniers sont entraînés à l’aide d’un grand nombre de données, parmi lesquelles figurent parfois des données personnelles. Celles-ci se divisent en deux catégories : les données fournies directement par des personnes concernées ou les utilisateurs du système d’IA intégrant le modèle d’IA, auxquelles se rajoutent les données collectées durant l’utilisation du service (données first-party) et les données de non-utilisateurs collectées par web scraping ou grâce à la signature de contrats de licences d’utilisation de contenus (données third-party).
Lorsque le fournisseur se contente d’utiliser des données first-party pour entraîner ses modèles d’IA, le contact direct dont il dispose avec les personnes concernées par le traitement lui permet de les informer de manière classique, notamment via une politique de confidentialité – à laquelle il sera renvoyé depuis un formulaire de collecte ou un courriel – qui devra être précise et claire sur les finalités d’entraînement des modèles (notamment en distinguant l’information portant sur l’entraînement des modèles des autres traitements). A l’inverse, s’il utilise également (suite)

Le 3e Sommet sur l’IA se tient en février à Paris sous l’égide du président de la République, Emmanuel Macron

L’intelligence artificielle préoccupe de plus en plus les Etats du monde entier, alors que Trump a lancé Stargate et la Chine DeepSeek. Après le 55e Forum mondial de l’économie en janvier à Davos, où il a été question d’IA, le 3e Sommet de l’IA – organisé par l’Elysée les 10 et 11 février à Paris – cherche la réplique.

N’appelez pas cette troisième édition « AI Safety Summit » (Sommet sur la sécurité de l’IA) comme ce fut le cas pour la première édition qui s’était tenue au Royaume-Uni en 2023 (1), ni même « AI Paris Summit » sur le modèle de la seconde édition qui avait eu lieu en Corée du Sud en 2024, à Séoul, sous le nom de « AI Seoul Summit » (2).
La France organise cette année ce troisième rendez-vous international sous un nom encore différent : cette fois, il s’agit du « Sommet pour l’action sur l’IA », les 10 et 11 février 2025 au Grand Palais à Paris (3). « Ce nom a été choisi car nous voyons l’IA comme une technologie, avec des opportunités et des risques – l’action c’est pour agir pour les opportunités et contre les risques, et engager des actions concrètes sur ces sujets », indique à Edition Multimédi@ la présidence de la République, Emmanuel Macron (photo) étant à l’initiative de cet événement. La nouvelle appellation est aussi moins anxiogène que celle retenue en 2023 par son ancien homologue britannique Rishi Sunak, à qui revient la paternité de ce sommet international dédié à l’intelligence artificielle lorsqu’il était Premier ministre de Sa Majesté. Si pour les deux premières éditions, la Grande-Bretagne a été respectivement organisatrice et coorganisatrice, cette troisième édition est pilotée par l’Elysée, avec l’Inde qui copréside.

Davos, Stargate, DeepSeek : l’IA dans tous ses « Etats »
Mais ce Sommet pour l’action sur l’IA a été devancé par trois événements de portée internationale touchant à l’intelligence artificielle : le premier en Suisse avec le Forum de Davos, le second aux Etats-Unis avec le projet Stargate et le troisième avec l’offensive de l’IA générative chinoise DeepSeek. Le traditionnel Forum économique mondial ou World Economic Forum (WEF) – qui se tient depuis 54 ans dans la station de ski huppée de Davos en Suisse – lui a donné une place de choix lors de sa 55e édition qui s’est déroulée du 20 au 24 janvier dernier sous le thème cette année « Collaboration pour l’ère de l’intelligence ». (suite)

Artistes et auteurs interpellent le Sommet de l’IA

En fait. Le 21 janvier, six organisations d’artistes et d’auteurs – Sacem, Scam, Adami, Spedidam, ADAGP et SGDL – ont demandé à leurs quelque 363.700 membres de signer une « tribune collective » pour interpeller les chefs d’Etat et dirigeants qui se réuniront les 10 et 11 février au Sommet de l’IA à Paris.

En clair. Selon les informations de Edition Multimédi@, six organisations d’artistes, d’auteurs, de compositeurs, de créateurs ou encore d’éditeurs ont écrit le 21 janvier à leurs membres respectifs, soit à environ 363.700 au total, pour leur demander de signer une « tribune collective » afin de « faire entendre [leur] voix » lors du Sommet pour l’action sur l’intelligence artificielle (IA) qui se tiendra les 10 et 11 février à Paris à l’initiative de l’Elysée.
« Il est de notre devoir de nous mobiliser pour défendre les droits des créateurs et veiller à ce que les politiques publiques, ainsi que les grandes entreprises d’IA, respectent et valorisent nos contributions », justifie Patrick Sigwalt, président du conseil d’administration de la Société des auteurs, compositeurs et éditeurs de musique (Sacem). Ses membres ainsi que ceux de la Société civile des auteurs multimédias (Scam), de l’Administration des droits des artistes et musiciens interprètes (Adami), de la Société de gestion des droits des artistes interprètes (Spedidam), de la Société des auteurs dans les arts graphiques et plastiques (ADAGP) et de la Société des gens de lettres (SGDL) avaient jusqu’à ce 3 février pour signer cet « appel commun ». Il s’agit d’interpeller les (suite)