Les travailleurs fantômes de l’IA : les étiqueteurs de données ne veulent plus être en esclavage

Sama est une société américaine à qui Meta, Google ou Microsoft sous-traitent l’étiquetage de quantités de données (images, vidéos, textes, audios, …) pour le bon fonctionnement de leurs IA génératives. En avril 2026, elle a licencié plus de 1.100 d’employés au Kenya. Un métier précaire méconnu.

Sama (ex-Samasource Impact Sourcing) ne vous dit rien. C’est normal. Cette entreprise américaine – dont le siège social est situé dans la Silicon Valley, à San Francisco depuis sa création en 2008 – prospère dans l’ombre des Gafam et plus encore des nouvelles Big Tech de l’IA. Il s’agit d’un sous-traitant majeur dans le numérique et l’intelligence artificielle, qui emploie des milliers d’« étiqueteurs de données » (ou data labelers en anglais). Ce sont les « petites mains » chargées d’étiqueter des milliers, des millions voire des milliards de données brutes (images, textes, vidéos, sons, etc.).

« Histoire conflictuelle » de Sama (Ecofin)
Leur labeur est indispensable pour donner à ces monceaux de données du sens, afin que les modèles de langage des IA puissent les exploiter et répondre aux requêtes de millions d’utilisateurs du monde entier de façon plus pertinente. Ce métier dédié à l’annotation de data s’est développé à vitesse grand-V à travers la planète, notamment en Afrique et en Asie, souvent en exploitant ces travailleurs précaires et mal payés, victimes d’un nouveau « colonialisme numérique », voire d’un nouvel « esclavagisme moderne ». La société Sama que dirige Wendy Gonzalez (photo) se défend, elle, d’exploiter ses salariés et affirme leur accorder salaires décents et avantages sociaux (couverture médicale, congés payés, indemnités maladie, …).
Pour autant, l’entreprise – active principalement en Afrique de l’Est, avec son centre de Nairobi au Kenya comme plaque tournante – a annoncé le 16 avril 2026 le licenciement de 1.108 employés dans la capitale kényane en respectant l’Employment Act de ce pays (1). Et ce, a-t-elle justifié, à la suite de la fin d’un important contrat avec Meta Platforms lié à l’annotation de données pour Meta AI et anciennement à la modération de contenu. Les implantations de Sama en (suite)

Copyright & GenAI : la résolution des eurodéputés adoucit la « présomption » en faveur de l’innovation

Depuis que les eurodéputés ont adopté, en séance plénière le 10 mars 2026, une résolution sur le droit d’auteur et l’intelligence artificielle générative, texte qui n’a pas de caractère contraignant, la balle est dans le camp de la Commission européenne pour qu’elle clarifie les règles du jeu.

Le texte sur le copyright et l’IA adopté le 10 mars 2026 à Strasbourg par le Parlement européen – intitulé « Résolution sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis » (1) – posent des principes mais ne résout pas à ce stade les relations compliquées entre l’innovation qu’est l’IA et le copyright. D’autant que cette résolution politique issue du rapport de l’eurodéputé Axel Voss (photo) est non contraignante, le rapport lui-même dit « d’initiative » (du Parlement européen) étant non législatif, et n’a pas vocation à être publié au Journal Officiel de l’Union européenne (JOUE).

Les « ambiguïtés » de la directive « Copyright »
Il faudra attendre que la Commission européenne suive éventuellement les recommandations de cette résolution « Copyright & GenAI », notamment dans le cadre de la révision de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, dite « Copyright » (2), voire dans de futures lignes directrices sur l’entraînement des IA, pour que de nouvelles clarifications soient publiées au JOUE après adoption par le Parlement européen. Or il est justement prévu dans cette directive « Copyright » que la Commission européenne doit procéder – « au plus tôt le 7 juin 2026 » – au réexamen de la présente directive et présente un rapport exposant ses principales conclusions au Parlement européen, au Conseil de l’UE et au Comité économique et social européen.
C’est dire que cette perspective devient (suite)

La présomption d’exploitation des contenus culturels par les IA reste incertaine voire inconstitutionnelle

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a été déposée au Sénat le 12 décembre 2025. Ce projet de texte ne fait pas l’unanimité, ni en France ni au Parlement européen, et soulève des questions.

(La commission juridique du Parlement européen a voté le 28 janvier 2026 pour le rapport de l’eurodéputé Alex Voss, mais expurgé de l’irrebuttable presumption of use).

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », déposée au Sénat le 12 décembre 2025, sera-t-elle examinée en ce début 2026 ? Rien n’est moins sûr, car ce texte – concocté en plein lobbying d’organisations d’ayants droits et sur recommandation d’une mission du ministère de la Culture conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – soulève des questions et des réserves de la part des entreprises visées et du gouvernement.

Les deux objectifs poursuivis par le Sénat
Pour les sénatrices Agnès Evren (LR) et Laure Darcos (Indépendants) ainsi que le sénateur Pierre Ouzoulias (communiste/CRCE), qui ont publié le 9 juillet 2025 un rapport d’information intitulé « Création et IA : de la prédation au partage de la valeur » (1), il s’agit d’instaurer une inversion de la charge de la preuve ou tout du moins d’alléger la charge de la preuve pesant sur les ayants droit lorsque ces derniers forment un recours. En clair : ce serait aux entreprises de systèmes d’IA de démontrer qu’elles n’utilisent pas de contenus culturels pour l’entraînement de leurs systèmes d’IA.
« La présomption proposée ici est dite simple ou réfragable [réfutable, pouvant être contredits, ou mis en défaut par un raisonnement ou une preuve, ndlr]. Elle peut donc être renversée par la preuve contraire, c’est-à-dire la démonstration au juge que le ou les contenus n’ont pas été utilisés », justifient les sénateurs emmenés par Laure Darcos (photo). D’autant que pour les auteurs de la proposition de loi, « il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd’hui aux titulaires de droits, alors qu’ils n’ont pas la maîtrise technique de l’outil IA, est trop lourde pour des professionnels de l’exploitation de la donnée ». La proposition de loi vise donc à instaurer cette présomption légale, en poursuivant un double objectif comme (suite)