« Physical AI » : pourquoi Nvidia ne lancera pas son propre robot humanoïde nouvelle génération

Au CES 2026 de Las Vegas, Nvidia a donné un coup d’accélérateur à sa conquête des « cerveaux » de robots humanoïdes. Cette diversification, au-delà des centres de données et des IA génératives, devrait conforter sa place de première capitalisation boursière mondiale.

« Le prochain voyage, la prochaine ère pour les systèmes robotiques, ce sera les robots, et ces robots viendront dans toutes sortes de tailles différentes », a lancé Jensen Huang (photo), le PDG fondateur de Nvidia, lors de son intervention ultramédiatisée au CES 2026 de Las Vegas, le 5 janvier, où ont évolué sur scène à ses côtés de petits robots humanoïdes dignes de la saga Star Wars (R2-D2, C-3PO, …), ainsi que le robot infirmier Nurabot développé par le taïwanais Foxconn avec Nvidia et Kawasaki. Agibot du chinois Zhiyuan Robotics et Chenille du sud-coréen LG Electronics étaient aussi de la partie (1).

Boston Dynamics, Neura, Franka, Humanoid, …
« Et voilà donc le prochain chapitre. Nous parlerons beaucoup plus de robotique à l’avenir, mais ce n’est pas seulement des robots au final. […] Et l’une des industries les plus importantes au monde qui sera révolutionnée par l’IA physique et la physique de l’IA est celle qui nous a tous fondés », a prédit l’Américano-Taïwanais Jensen Huang, lors de sa keynote aux allures de one-man-show.
Le patron emblématique des puces IA a cité de nombreux clients partenaires de Nvidia tels que : l’américain Boston Dynamics (détenu depuis 2021 par le sud-coréen Hyundai Motor Group), qui a sorti son robot humanoïde Atlas de son laboratoire pour lancer sa version commerciale durant ce CES 2026 (2) ; l’allemand Neura Robotics, qui a lancé aussi à Las Vegas sa nouvelle génération de robots humanoïdes 4NE (3) ; le britannique Humanoid, qui a annoncé au CES son premier robot humanoïde baptisé « HMND-01 Alpha » (4), roulant et bipède, intégrant « dans sa pile technologique » (technology stack) les technologies Nvidia que sont (suite)

Tout le monde pourra devenir développeur d’applications sans coder, grâce aux « IA codeuses »

Fini les geeks qui se retrouvent seuls à écrire des lignes de codes pour développer – « from scratch » (à partir d’une feuille blanche) – des programmes ou des applications. Les développeurs informatiques sont une espèce en voie de disparition. A terme, tout le monde pourra programmer sans coder.

Imaginez un monde numérique dans lequel tout un chacun pourra créer son application mobile ou ses programmes informatiques, sans connaître le codage ni même avoir entendu parler de langages de programmation tels que les Python, C++ et autres Java. Dans ce futur, pas si lointain, n’importe qui pourra concevoir son logiciel ou son application en fonction de ses besoins ou inventer son jeu vidéo à lui, pour se divertir. Et ce, sans écrire la moindre ligne de code ni faire appel à un programmeur professionnel.

De l’autocomplétion passive à l’agentique actif
Votre rêve pourrait rapidement devenir réalité grâce à la déferlante en cours des « IA codeuses », ces intelligences artificielles agentiques capables de coder à votre place en fonction du logiciel, de l’application ou du jeu vidéo que vous souhaitez. Les grands modèles de langage (LLM) dernière génération – Gemini 3 de Google, GPT 5 d’OpenAI, Claude 4.5 d’Anthropic, Large de Mistral AI ou encore Grok 4 de xAI – ont donné naissance à agents codeurs qui génèrent euxmêmes du code, le testent et en assurent sa maintenance. Par exemple, si l’on reprend nos précédents LLM (1), ces IA codeuses s’appellent Antigravity (lancée le 18 novembre 2025), GPT 5.1 High (lancée par OpenAI le 12 novembre), Claude Code (lancée largement le 22 mai), Codestral (lancée par Mistral AI le 29 janvier) ou encore Grok Thinking (lancé par xAI le 17 novembre). L’année 2025 marque donc un tournant et une accélération sur le nouveau marché mondial des IA codeuses, où l’on retrouve bien d’autres concurrents tels que GitHub Copilot (Microsoft), Cursor (Anysphere), Qwen3-Max (Alibaba), Replit Agent (Replit), …
A ce train-là, l’intelligence artificielle (suite)

SEO, GEO et LLMO : visibilité en ligne chamboulée

En fait. Le 17 septembre, la société américaine Zeta Global – cotée en Bourse à New-York et spécialisée dans les solutions de marketing multicanal – a lancé sur sa plateforme le Generative Engine Optimization (GEO), la solution tendance pour que les marques restent visibles dans les réponses des IA génératives.

En clair. Signe des temps, la société de marketing direct Zeta Global – fondée en 2007 par par David Steinberg, son actuel PDG, et John Sculley, ancien PDG d’Apple (1983-1993) – plonge dans le grand bain mondial de l’optimisation pour les moteurs génératifs. Les spécialistes du marketing et les annonceurs publicitaires ont aimé le Search Engine Optimization (SEO), pour rendre plus visibles leurs marques et sites web dans les résultats des moteurs de recherche ; ils adorent déjà le Generative Engine Optimization (GEO). Car les moteurs de recherche traditionnels voient de plus en plus leurs utilisateurs passer aux intelligences artificielles génératives, même si Google est pour l’instant encore en position dominante avec son search. L’institut d’études Gartner a prédit « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » (1).
De son côté, le cabinet de conseil Bain & Company a relevé en février 2025 que « 80 % des consommateurs (suite)

Entraînement des IA avec les données personnelles de Facebook et d’Instagram : validation européenne ?

Une décision rendue le 23 mai 2025 par un tribunal de Cologne (OLG Köln), couplée aux échanges préalables avec la « Cnil » irlandaise (DPC) et à la mise en place des mesures proposées par cette dernière, entérine la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA.

Par Sandra Tubert, avocate associée, et Miguel Piveteau, élève avocat, Algo Avocats

Le groupe Meta Platforms utilise depuis le 27 mai 2025 les données partagées publiquement par les utilisateurs majeurs et les comptes institutionnels sur ses services Facebook et Instagram (1) : publications, photos, vidéos ou encore commentaires (exceptés les messages échangés entre utilisateurs et contenus privés), mais aussi les interactions des utilisateurs avec ses systèmes d’intelligence artificielle (IA) pour entraîner ses grands modèles de langage (LLM) comme Llama.

Décision d’un tribunal de Cologne
A la différence de X (ex-Twitter) (2), Meta a engagé un dialogue constructif avec l’autorité irlandaise de protection des données (DPC). En effet, avant que le grand public ne découvre ce nouveau projet fin mai 2024, Meta avait informé la DPC, au mois de mars 2024, de son souhait d’utiliser les contenus publics de ses utilisateurs européens de Facebook et d’Instagram pour l’entraînement de ses modèles d’IA (3). Meta avait finalement suspendu le projet, le 14 juin 2024 (4), après le dépôt de plusieurs plaintes par l’organisation autrichienne Nyob auprès de onze autorités de contrôle européennes (5) et d’échanges avec la DPC (6), laquelle avait émis des réserves concernant notamment (suite)

Titulaires de droit et entraînement des IA : entre droit d’auteur recomposé et procès en série

Pendant que les systèmes d’IA prolifèrent en s’entraînant sur de quantités de données multimédias, les procès se multiplient dans le monde entre auteurs de contenus protégés et IA génératives – oscillant entre piratage, fair use ou encore exception pour « fouille de textes et de données ».

Par Christiane Féral-Schuhl et Richard Willemant, avocats associés, cabinet Féral

C’est un sujet à donner des sueurs froides aux titulaires de droit d’auteur ! Avec l’entrée en vigueur du règlement européen du 13 juin 2024 sur l’intelligence artificielle (IA) – l’AI Act (1) – et l’articulation des nouveaux usages de modèles d’IA avec les principes juridiques établis, les juridictions du monde entier naviguent à vue, tiraillées entre l’impératif d’innovation et le respect du droit d’auteur.

Nécessaire autorisation des titulaires de droit
Les données seraient-elles véritablement « l’or noir » du XXIe siècle ? Leur collecte et leur utilisation à des fins d’entraînement des systèmes d’IA semblent confirmer leur valeur économique stratégique à l’ère du tout-numérique. Or, la collecte massive et automatisée (aussi appelée « moissonnage » ou « web scraping ») de données accessibles sur les réseaux sociaux – comme cela a été récemment annoncé par la société Meta Platforms concernant les utilisateurs d’Instagram et de Facebook – et plus globalement sur Internet, comporte le risque de traiter des données protégées. Et ce, à l’image de celles concernant des œuvres originales, pour lesquelles une autorisation du titulaire de droit est requise.
La question est de savoir dans quelles conditions le fournisseur de système d’IA peut avoir recours à des données d’entraînement sur lesquelles des titulaires détiennent des droits d’auteur. En France, la protection des œuvres est très claire : « Toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (2), dit le code de la propriété intellectuelle (CPI). En principe, toute utilisation non autorisée d’un contenu protégé par le droit d’auteur à des fins d’entraînement d’un système d’IA est donc illicite.
Ainsi, les procédures engagées contre des fournisseurs de tels systèmes d’IA (suite)