Mis à part Google et YouTube, le groupe Alphabet va-t-il gagner de l’argent avec ses « autres paris » ?

« Other bets » : ce sont les investissements d’Alphabet dans d’autres domaines d’innovation que les services de Google (YouTube compris). Si leur revenus sont embryonnaires, ils s’acheminent petit à petit vers le milliard de dollars de chiffre d’affaires. Mais leur déficit est encore abyssal.

« Alphabet est un ensemble d’entreprises – dont la plus grande est Google – que nous déclarons sous deux segments : Google Services et Google Cloud. Nous déclarons toutes les entreprises non- Google collectivement en tant qu’”autres paris”. Ces other bets comprennent des technologies à un stade plus précoce, qui sont plus éloignées de notre cœur de métier Google. Nous adoptons une vision à long terme et gérons le portefeuille des “autres paris” avec la discipline et la rigueur nécessaires pour générer des rendements à long terme », assure la maison mère de Google, dirigée par Sundar Pichai (photo) depuis décembre 2019.

Diversification encore très déficitaire
Si 92,3 % du chiffre d’affaires 2020 du groupe Alphabet dépend des revenus de la galaxie « Google » (Google Search, YouTube, Android, Chrome, Google Maps, Google Play ou encore Google Network), et même 99,5 % si l’on inclut Google Cloud, le reliquat est généré par les « autres paris » d’Alphabet à hauteur de 657 millions de dollars. C’est une goutte d’eau pour la firme de Mountain View (Californie), mais elle espère en tirer des bénéfices au cours des prochaines années. Bien que la croissance des recettes générées par ces other bets n’ait pas été au rendez-vous entre 2019 et 2020 (- 0,3 %), le premier semestre de l’année 2021 (au 30 juin) fait meilleure figure avec un bond de 37,8 % du chiffres d’affaires des « autres paris », à 390 millions de dollars sur six mois, par rapport à la même période un an auparavant.
Selon les prévisions de la banque américaine Goldman Sachs, qui a annoncé mi-septembre la couverture du titre Alphabet (1), les « autres paris » pourraient frôler à fin 2022 la barre du milliard de dollars de chiffre d’affaires (à savoir 910 millions de dollars l’an prochain, contre une estimation supérieure à 800 millions cette année). Pour autant, Alphabet doit en contrepartie consentir à d’importantes pertes opérationnelles sur ses « autres paris » : plus de 2,5 milliards de pertes sur les six premiers mois de cette année (aggravé de 13,6 % sur un an), alors que l’année 2020 dans son ensemble accusait déjà plus de 4,4 milliards de dollars de déficit opérationnel dans ces other bets (mais cette fois en amélioration de 7,2 % par rapport à 2019). Cela dit, Alphabet consacre beaucoup d’argent annuellement à sa R&D : plus de 15 % de chiffre d’affaires global, soit 27,5 milliards de dollars en 2020 (et rien que sur le premier semestre 2021 une enveloppe de 15,1 milliards de dollars). Et au cas où cela ne suffirait pas, notamment pour faire de nouvelles acquisitions stratégiques et de start-up, Alphabet dispose en plus (au 30 juin 2021) de 135,9 milliards de cash disponible (2). Pour l’heure, le « G » de GAFA fondé par Larry Page et Sergey Brin – restructuré en octobre 2015 sous la holding Alphabet (3) – tient à rassurer sur ses coûteux et risqués investissements diversifiés – dont certains ont été abandonnés, nous le verrons, faute de viabilité. « L’investissement d’Alphabet dans notre portefeuille “autres paris” comprend des entreprises émergentes à divers stades de développement, allant de celles en phase de recherche et développement à celles qui en sont aux premiers stades de commercialisation, et notre objectif est qu’elles deviennent prospères, à moyen et à long terme. Bien que ces entreprises en démarrage connaissent naturellement une grande incertitude, certaines d’entre elles génèrent déjà des revenus et font d’importants progrès dans leurs industries », tente de rassurer Alphabet dans son rapport annuel 2020.
Quatre filiales sont le plus avancées dans leur développement et réalisation ; elles sont aussi les seules filiales de la nébuleuse « autres paris » à être mentionnées dans ses tout derniers rapport financiers (annuel 2020 et semestriel 2021), sans pour autant mentionner de résultats pour chacune d’elle.

Des acquisitions et des levées de fonds
Waymo travaille à rendre les transports plus sécurisés et plus faciles pour tous, en particulier avec la voiture autonome ; Verily élabore des outils et des plateformes pour améliorer les résultats en matière de santé ; Fitbit, dont l’acquisition annoncée il y a près deux ans pour 2,1 milliards de dollars a été finalisée en janvier dernier, est présent sur le marché des objets connectés d’activités physiques ou wearables ; DeepMind Technologies, société britannique et consacrée à la recherche en intelligence artificielle et en réseaux neuronaux pour imiter la mémoire du cerveau humain, a été créée en 2010 et est devenue quatre ans après une filiale d’Alphabet. Parmi elles, la filiale de véhicules autonomes Waymo, qui fait circuler depuis 2017 des robotaxis sans chauffeur à Phoenix (Arizona) et depuis février dernier à San Francisco (Californie), appuie sur l’accélérateur après avoir levé en juin 2,5 milliards de dollars – après les 3 milliards obtenus l’an dernier. D’autres actifs moins connus sont dans le portefeuille d’investissement d’Alphabet tels que la filiale Calico (Calico Life Sciences) spécialisée dans le contrôle biologique du vieillissement humain pour permettre aux gens de mener une vie plus longue et en bonne santé (4).

Des échecs aussi : Loon, Makani, Quayside…
La start-up Wing, elle, est spécialisée dans les drones de livraison et existe en tant que société depuis 2018 après avoir été incubée en tant qu’un des projets « X » – de l’ex-Google X – il y a près de dix ans. Autre filiale d’Alphabet : Intrinsic, issue elle aussi des projets X, est devenue une société en juillet dernier pour poursuivre le développement et la commercialisation de solutions de robotique industrielle boostées au machine learning et à l’IA, flexibles et à prix abordables. Dans l’urbanisme et les smart cities, la filiale newyorkaise Sidewalk Labs créée en 2010 œuvre, elle, à l’amélioration de l’infrastructure urbaine pour réduire le coût de la vie dans le transport, le parking et la consommation d’énergie.
Mais les paris peuvent se traduire par des échecs, c’est le jeu : en janvier dernier, Alphabet a annoncé la fermeture sa filiale Loon – créé en 2018 après être sortie du laboratoire Google X, et l’abandon de son projet d’apporter l’accès Internet à haut débit dans les zones les plus reculées du globe à l’aide de ballons stratosphériques. L’opérateurs télécoms du Kenya en avait été le premier et seul client. Alphabet a aussi jeté l’éponge en fermant en février 2020 sa filiale Makani Technologies, société californienne créée en 2006, acquise en 2013, et spécialisée dans la fabrication d’éoliennes aéroportées – des « cerfs-volants énergétiques » qui devaient être destinés au plus grand nombre (les codes et les brevets ayant néanmoins été mis dans le domaine public).
Du côté de la filiale newyorkaise Sidewalk Labs, le projet « Quayside » de futur quartier intelligent et durable créé ex-nihilo dans la ville canadienne de Toronto, a dû être abandonné en mai 2020 – soit au bout de trois ans de gestation – car jugé trop technologique et peu viable économiquement. Plus récemment, Google a confirmé fin septembre avoir renoncé à lancer Plex, un projet de banque en ligne avec Citigroup (Citi) ou la Banque de Montréal (BMO) comme partenaires.
D’autres projets sont encore en gestion dans l’incubateur X Development (ex-Google X) qui encourage les moonshots, comprenez les rêves impossibles, les grandes ambitions :
• Mineral met au point de nouvelles technologies pour aider à bâtir un système alimentaire plus durable, plus résilient et plus productif (foodtech) ;
• Tidal développe un système de caméras sous-marines doté d’outils de perception et de visibilité des écosystèmes océaniques pour mieux les comprendre et les protéger ;
• le Everyday Robot Project fabrique des robots qui peuvent fonctionner en toute sécurité dans le quotidien des humains grâce au machine learning ;
• Taara teste dans des zones rurales d’Inde et d’Afrique une technologie d’accès haut débit à Internet qui utilise des faisceaux lumineux ;
• Glass Enterprise Edition est le développement (par l’ex-Google X) et la fabrication (par Foxconn) de lunettes de réalité augmenté pour le monde professionnel (au-delà donc des Google Glass grand public lancées en 2013 puis arrêtées en 2015) ;
• Malte construit une technologie de stockage d’énergie (gridscale) qui stocke l’électricité à partir de sources d’énergie renouvelables sous forme de chaleur à l’intérieur de grands réservoirs de sel fondu ;
• Project Foghorn cherche à créer du carburant propre à partir de l’eau de mer ;
• Dandelion (qui veut dire pissenlit) veut réduire les coûts de chauffage et les émissions de carbone grâce à l’énergie géothermique ;
• BrainBrain vise à apporter les avantages de l’IA et de l’apprentissage automatique à tous ;
• Chronique consiste à aider les entreprises à trouver et à arrêter les cyberattaques.
Cet inventaire à la Prévert de la diversification d’Alphabet est, depuis septembre dernier, présenté et censé être actualisé sur le nouveau site web de la société X Development (5) et non plus sur le blog de la « Team X » (6). La filiale « X » d’Alphabet recrute à tour de bras, surtout des ingénieurs, des scientifiques et des inventeurs pour ses différents actifs incubés (7). A condition que les candidats aient la culture « moonshot », afin de repousser les limites de l’impossible.

Google reste la vache-à-lait d’Alphabet
Pendant ce temps-là, la galaxie « Google » a profité de la crise sanitaire pour être plus que jamais la vache à lait d’Alphabet : Goldman Sachs table sur un chiffre d’affaires mondial du géant du Net dans son ensemble (« autres paris » compris) pour cette année 2021 dépassant la barre des 200 milliards de dollars, à plus de 206,3 milliards, contre 182,5 milliards l’an dernier (8) où le bénéfice net était de 40,2 milliards de dollars. Ce qui permet donc à Sundar Pichai de faire par ailleurs des paris risqués et onéreux. @

Charles de Laubier

Vers une régulation harmonisée des systèmes d’intelligence artificielle (IA) à risque en Europe

Le projet de règlement européen « Régulation harmonisée de l’IA », qui a entamé son parcours législatif, est ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD. Très redouté par les GAFAM, ce cadre établie une échelle de risques des « systèmes d’IA ».

Par Laura Ziegler et Rémy Schlich, avocats, Algo Avocats

Faire de l’Union européenne (UE) la première région au monde pour le développement d’une intelligence artificielle de pointe, éthique et sûre, axée sur le facteur humain. Tel est l’objectif poursuivi depuis 2018 par la Commission européenne (1). Celle-ci est passée à la vitesse supérieure en proposant un règlement (2) établissant des règles harmonisées en matière d’intelligence artificielle (IA), afin d’encadrer une technologie stratégique et transversale, jusqu’alors habituée au droit souple.

Amorce d’une régulation de l’IA
En l’absence de cadre légal général spécifique, le développement de l’IA a été favorisé ces dernières années par une régulation souple, volontaire et sectorielle, par le prisme des chartes éthiques et de la soft law, visant à la fois à sensibiliser le marché aux enjeux attachés à son usage et à bâtir la confiance nécessaire à son expansion. Née d’une volonté de promouvoir l’IA en facilitant son développement au sein du marché européen par une approche harmonisée et d’encadrer les risques associés à son utilisation, la proposition présentée par la Commission européenne le 21 avril 2021 opte pour une régulation de l’lA via l’instrument juridique européen le plus contraignant – le règlement – en instaurant un cadre qu’elle veut toutefois souple. Elle tient compte des nombreux travaux conduits en ce sens à l’échelle européenne, notamment par le groupe d’experts désignés par elle (3), le Parlement européen (4) ou encore dans le cadre du Conseil de l’Europe (5). Si plusieurs approches ont été examinées par la Commission européenne (mise en place d’un schéma de labélisation volontaire, approche sectorielle, règles impératives applicables à tous les systèmes d’IA sans distinction), une approche fondée sur l’évaluation des risques emporte ainsi sa préférence. Il s’agit d’instaurer un cadre réglementaire impératif, applicable uniquement aux systèmes d’IA présentant des risques élevés, et de laisser la possibilité aux fournisseurs de systèmes d’IA ne présentant pas de tels risques de s’autoréguler par l’adoption de chartes de conduite. Le projet de règlement « Régulation harmonisée de l’IA », qui vient d’entamer son parcours législatif au sein du Conseil de l’UE et de ses instances préparatoires (6), se veut ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD, les opérateurs établis hors de l’UE à l’origine de la mise sur le marché, de la mise en service et de l’utilisation d’un système d’IA dans l’UE se trouvant également exposés à cette nouvelle réglementation. S’affranchissant de la désormais classique opposition IA forte/IA faible et rejoignant ainsi la position du Comité ad hoc sur l’intelligence artificielle (CAHAI (7)) du Conseil de l’Europe (8), la proposition adopte une approche généralisée et « neutre » technologiquement visant les systèmes intégrant des logiciels développés à l’aide d’une ou plusieurs techniques – systèmes auto-apprenants, systèmes logiques et systèmes statistiques (9) – et qui, « pour un ensemble donné d’objectifs définis par l’homme, génèrent des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels » (10). L’approche sectorielle n’est également pas retenue par la Commission européenne qui opère une classification des systèmes d’IA en fonction de leurs finalités et non de la technologie utilisée (11), excluant au passage de son champ d’application les systèmes d’IA développés pour des finalités militaires (12) ou utilisées dans le cadre d’activités non-professionnelles ou ponctuelles (13). Le régime applicable aux systèmes d’IA sera ainsi fonction des risques induits par la finalité poursuivie par ces systèmes et leurs impacts en matière de sécurité, de santé ou encore de respect des droits et libertés fondamentaux des individus. Cette approche par les risques répertorie les utilisations de l’IA selon plusieurs catégories.

De la prohibition à la libre utilisation
L’utilisation de certains systèmes d’IA est désormais prohibée, considérée comme contrevenant par nature aux valeurs de l’UE et notamment aux droits fondamentaux. Sont ainsi interdites par exemple : les pratiques – comme le nudging – présentant un risque potentiel significatif de manipulation des individus par l’usage de techniques subliminales ou exploitant les vulnérabilités de certaines catégories d’individus (enfants, etc.) ; les pratiques susceptibles de leur causer un préjudice physique ou psychologique, celles visant à évaluer, classer ou noter les personnes physiques sur la base de leur comportement social, de caractéristiques personnelles ou prédites et conduisant à un traitement préjudiciable ou défavorable ; celles encore utilisant des techniques d’identification biométrique en temps réel dans des espaces accessibles au public à des fins d’application de la loi – sous réserve de certaines exceptions strictement encadrées (14). En introduisant de telles exceptions, la Commission européenne écarte donc l’idée d’un moratoire sur l’usage de la reconnaissance faciale dans l’espace public, envisagé peu avant la publication de son livre blanc (15) et souhaité par le Contrôleur européen de la protection des données et le Comité européen de la protection des données (EDPB) dans leur récent avis conjoint (16) (*).

Les systèmes d’IA à haut risque
Véritable cœur de la proposition, les « système d’IA à haut risque », c’est-à-dire présentant un risque élevé en matière de santé, de sureté et/ou de respect des droits et libertés fondamentales, sont autorisés sur le marché européen sous réserve de respecter un certain nombre d’exigences réglementaires et de procéder à une évaluation préalable de conformité. Deux catégories principales de systèmes d’IA à haut risque sont identifiées par la Commission européenne : ceux destinés à être utilisés comme composants de sécurité de produits soumis à une évaluation de conformité préalable par un tiers (17), et ceux autonomes ayant principalement des incidences sur les droits fondamentaux (18). Les systèmes d’IA spécifiques, c’est-à-dire présentant des risques spécifiques de manipulation, sont quant à eux uniquement soumis à des obligations de transparence et d’informa-tion (19) : il s’agit de ceux utilisés pour interagir avec des individus (chatbots), détecter des émotions ou établir des catégories sur la base de données biométriques ou encore pour générer ou manipuler des images, du contenu audio ou vidéo (deepfakes). Tous les autres systèmes d’IA ne sont quant à eux soumis à aucun encadrement strict (20).
Quant aux obligations pesant sur les différents acteurs de la chaîne de valeur d’un système d’IA, elles dépendent du rôle de chacun des acteurs. Des obligations spécifiques sont ainsi imposées aux fournisseurs, importateurs, distributeurs, utilisateurs ainsi qu’aux autres tiers. En substance, plus l’acteur est éloigné de la phase de conception du système d’IA, moins ses obligations seront conséquentes. Ainsi, le fournisseur de système d’IA établi dans l’UE (21) qui le développe ou le fait développer sous son nom ou sa marque, est soumis à de plus nombreuses obligations (établir la documentation technique, conserver les logs générés, procéder à l’analyse de conformité avant sa mise sur le marché, notifier et coopérer avec les autorités compétentes). L’importateur, lui, devra s’assurer que le fournisseur a bien réalisé une analyse de conformité et établir une documentation technique, quand l’utilisateur devra, pour sa part, principalement se conformer aux instructions accompagnant le système d’IA. Le nombre de ces obligations, pesant par ailleurs principalement sur les fournisseurs de solutions d’IA (pourtant véritables moteurs de l’innovation), peut interroger, notamment sur la charge que représentera ces coûts de mise en conformité pour ces derniers et ses conséquences sur le marché. La Commission européenne affiche toutefois sa volonté de maintenir les coûts de mise en conformité à un niveau minimum applicables uniquement en fonction des risques encourus. Pour pallier d’éventuels effets négatifs, elle a mis en place des mesures dédiées pour soutenir l’innovation, notamment à l’attention des PME et des start-up. Elle encourage tout d’abord les autorités nationales compétentes à créer des «bac à sable réglementaire» (sandboxes) pour mettre en place, sous leur contrôle, un environnement permettant le développement, le test et la validation de systèmes d’IA innovants pendant une période déterminée avant leur mise sur le marché ou en service – avec l’objectif de les mettre en conformité avec ces exigences réglementaires. De la même manière, elle exige des Etats membres la mise en place d’un certain nombre de mesures visant à encourager les PME et les start-up de systèmes d’IA. Toutefois, le choix de la Commission européenne d’une approche par les risques et non par la technologie concernée implique de « qualifier » un système d’IA en fonction de la finalité de chaque projet concerné. Si dans certains cas la qualification du système d’IA sera toujours la même (d’autant plus lorsqu’il s’agit d’une offre standardisée), certains fournisseurs (22) pourraient en revanche voir leur systèmes d’IA soumis à des qualifications différentes. Un fournisseur pourrait ainsi se trouver soumis à la majorité des obligations prévues dans la proposition en raison des finalités du projet porté par son client, à moins que ce client ne circule le système d’IA sous son nom ou sa marque ou décide de modifier sa finalité ou son fonctionnement de façon substantielle pour éviter une telle qualification (23).
En cas de manquements, les lourdes sanctions encourues peuvent s’élever jusqu’à un maximum de 30 millions d’euros ou 6 % du chiffre d’affaires mondial. En parallèle, les recommandations et lignes directrices en matière d’IA sont de plus en plus nombreuses : l’Unesco examinera prochainement le projet de recomman-dation sur l’éthique de l’IA ; le Conseil de l’Europe a produit de nombreuses lignes directrices, rapports et recomman-dations ; l’EDPB et les autorités nationales ont adopté de nombreux textes venant encadrer l’utilisation de l’IA en général ou pour des technologies spécifiques telles que la reconnaissance faciale, la localisation et le traçage, les véhicules autonomes ou encore les assistants vocaux.

Entrée en vigueur en 2024 ?
Les initiatives sectorielles restent pour l’heure la norme en matière de régulation de l’IA. La phase des négociations entre le Parlement européen, le Conseil de l’UE et la Commission européenne commence à peine sur ce texte législatif qui n’entrera en vigueur que 24 mois après son adoption. Rendezvous en 2024. @

Jeunes internautes de moins de 13 ans et enfants influenceurs de moins de 16 ans sous surveillance

Alors qu’Instagram prépare une version « Kids » de son réseau social, la question de l’accès des mineurs de moins de 13 ans se pose de plus en plus. Entre l’intelligence artificielle et le contrôle parental, les TikTok, YouTube et autres Facebook cherchent à encadrer l’accès de la très jeune génération.

« Les enfants demandent de plus en plus à leurs parents s’ils peuvent rejoindre des applications qui les aident à suivre leurs amis. Une version d’Instagram où les parents ont le contrôle, comme nous l’avons fait avec Messenger Kids, est quelque chose que nous explorons. Nous en dirons plus prochainement », a lancé le 19 mars dernier dans un tweet (1) le directeur d’Instagram, Adam Mosseri. Sur le modèle de Messenger Kids, qui est opérationnels auprès des moins de 13 ans depuis 2017 aux Etats-Unis, aux Canada et quelques pays, avant d’être quasi généralisé dans le monde il y a un an, un « Instagram Kids » devrait donc voir le jour.

Les 13 ans de la loi américaine Coppa
Le patron d’Instagram réagissait à un article de Buzz Feed News qui révélait le 18 mars (2) le projet de Facebook de créer un Instagram pour les moins de 13 ans. Cela n’a pas manqué de susciter des réactions sur les réseaux sociaux, où justement les jeunes enfants en-dessous de cet âge-là n’ont pas le droit de s’inscrire. Cette interdiction aux moins de 13 ans a été officialisée par les Etats-Unis il y a huit ans maintenant, dans le cadre du Children’s Online Privacy Protection Act (Coppa). C’est sur cette loi américaine (3) fixant à 13 ans l’âge minimum pour pouvoir s’inscrire sur les réseaux sociaux – Facebook en tête – que les différents pays se sont alignés. Mais dans les faits, cette règle devenue universelle est largement enfreinte par de jeunes enfants et pré-adolescents qui contournent l’interdiction, soit en mentant sur leur âge, soit en utilisant l’identité d’un proche (un frère ou une soeur voire un ami-e complice, par exemple), soit en utilisant un compte d’un 13 ans ou plus à son insu. De nombreuses études ont démontré que des moins de 13 ans étaient bien présents sur les réseaux sociaux, Médiamétrie mesurant même l’audience des Facebook, Snapchat et autres TikTok à partir de l’âge de… 2 ans ! L’appétence des bambins pour ces plateformes d’échanges ne date pas d’hier : une étude Ipsos-Médiamétrie de 2015 révélait déjà que 57 % des 11–12 ans et 26 % des 9–10 ans avaient ouvert un compte. Plus récemment, en février dernier, le Bureau européen des unions de consommateurs (Beuc), dont est membre en France l’association UFC-Que Choisir, a déposé plainte (4) auprès de la Commission européenne contre l’application TikTok aux formats courts créatifs très prisée des jeunes. Ce recours, qui s’appuie sur « le règlement sur la coopération en matière de protection des consommateurs » du 12 décembre 2017 (Consumer Protection Cooperation Regulation), affirme que la plateforme chinoise accepte des inscriptions de moins de13 ans et s’inquiète du fait que « l’application est plébiscitée par les adolescents ». En France, UFC-Que Choisir affirme que « 45 % des enfants de moins de13 ans ont indiqué utiliser l’application » (5). Pourtant, TikTok tente d’y remédier, notamment avec son « Mode connexion famille » lancé en novembre 2020.
Instagram est aussi le terrain de jeu des moins de 13 ans, bien que cette limite soit bien la condition sine qua non dans ses conditions générales d’utilisation. « Nous exigeons que tout le monde ait au moins 13 ans pour utiliser Instagram et avons demandé aux nouveaux utilisateurs de fournir leur âge lorsqu’ils s’inscrivent à un compte pendant un certain temps. Bien que beaucoup de gens soient honnêtes au sujet de leur âge, nous savons que les jeunes peuvent mentir au sujet de leur date de naissance », a récemment reconnu la filiale de Facebook (la plateforme de photos et vidéos Instagram fut rachetée en 2012 pour 1 milliard de dollars). Adam Mosseri, le patron d’Instagram, veut y remédier. Cela passe selon lui par notamment restreindre les « DM» (direct messaging) entre les adolescents et les adultes qu’ils ne suivent pas, encourager les adolescents à rendre leur compte privé, ou encore les inciter à être prudents dans les « DM » (6). Dans l’annonce faite le 16 mars dernier concernant de nouvelles mesures vis-à-vis des plus jeunes, Instragam en appelle à l’IA et au machine learning : « Nous voulons en faire plus pour empêcher que cela se produise [les inscriptions en dessous de 13 ans], mais il est complexe de vérifier l’âge des gens en ligne et de nombreux membres de notre industrie sont aux prises avec ce problème ».

La « Cnil » italienne enquête depuis janvier
Et la filiale de Facebook d’ajouter : « Pour relever ce défi, nous mettons au point une nouvelle technologie d’intelligence artificielle et d’apprentissage automatique pour nous aider à assurer la sécurité des adolescents et à appliquer de nouvelles caractéristiques adaptées à leur âge ». De nouvelles fonctionnalités sont opérationnelles depuis le mois de mars dans certains pays, avant d’être généralisées partout dans le monde, a précisé Instagram. Par exemple, l’IA permettra de détecter lorsqu’un adulte envoie une grande quantité de demandes d’amis ou de messages à des personnes de moins de 18 ans. Les destinataires seront alertés dans leur DM en leur donnant la possibilité de mettre fin à la conversation, de bloquer, de signaler ou de restreindre l’adulte en question.
Fin janvier dernier, la GPDP – la « Cnil » italienne (7) – a demandé formellement à Facebook et à Instagram « des informations sur le traitement (des mineurs) » que font ces deux réseaux sociaux. « La “Garante” [surnom de la GPDP, ndlr] a demandé à Facebook, propriétaire d’Instagram, de fournir des informations, notamment le nombre et les profils détenus par la jeune fille et, le cas échéant, comment une jeune fille de 10 ans pourrait s’inscrire sur les deux plateformes », a-t-elle indiqué.

IA appelée à la rescousse (Instagram et TikTok)
La « Cnil » italienne faisait référence en particulier à la mort d’une fillette de 10 ans habitant à Palerme lors d’un défi dit du « jeu du foulard » sur TikTok. « Plus important encore, a poursuivi la “Cnil” italienne, des informations spécifiques ont été demandées sur les mécanismes d’enregistrement en place et les méthodes de vérification de l’âge appliquées par les deux réseaux sociaux pour vérifier le respect du seuil d’âge pour l’enregistrement ». Cette jeune victime avait ouvert plusieurs profils sur les deux réseaux sociaux de la firme de Mark Zuckerberg.
La GPDP a prévenu que son enquête allait s’étendre à tous les réseaux sociaux, notamment en ce qui concerne « les mécanismes régulant l’accès des enfants aux plateformes », dans le but d’« intensifie[r] son action pour protéger les enfants utilisant les réseaux sociaux » (8). Le 3 février dernier, la « Cnil » italienne a fait savoir que TikTok lui avait répondu avoir mis en oeuvre des mesures pour interdire l’accès aux utilisateurs de moins de 13 ans, tout en envisageant de « déployer des systèmes basés sur l’IA à des fins de vérification de l’âge » (9). Une campagne d’information sera également lancée par TikTok pour sensibiliser les parents et les enfants. Quant au groupe Facebook, il avait une quinzaine de jours pour répondre à la GPDP, mais aucune information n’a encore filtré du régulateur italien.
Intelligence artificielle ou contrôle parental ? Si Instagram et TikTok ont choisi la voie du traitement automatique à grand renfort de marchine learning, les parents sont aussi appelés à surveiller leurs chérubins. La plateforme vidéo YouTube a annoncé le 24 février dernier qu’elle allait dans les prochains mois proposer aux parents d’utiliser leur propre compte Google pour permettre à leurs enfants d’accéder leurs à YouTube mais dans le cadre de ce « compte supervisé », selon l’expression de James Beser (photo de droite), le directeur de produit « Kids and Family » (10) de la filiale vidéo de Google. Les parents régleront les contenus vidéo acceptables pour leurs enfants âgés de 13 ans et plus. Par ailleurs, le service YouTube Kids créé en 2015 et destinée des jeunes utilisateurs de plus de 13 ans intègre déjà le contrôle parental.
En France, le député Bruno Studer (LREM) – président de la commission des affaires culturelles et de l’éducation – a relancé la piste du contrôle parental par défaut. Dans une interview à Next Inpact publiée le 19 mars dernier, il s’en explique : « Il ne s’agit pour l’heure que d‘une piste de réflexion. Je repars du discours du président de la République de 2019 où le chef de l’Etat réclamait une solution robuste pour prévenir l’accès des mineurs aux sites pornos. Un sujet sur lequel je me suis penché. Nous en avons discuté ensemble. Nous devons désormais arriver à massifier l’utilisation du contrôle parental » (11). Plus d’un an après le discours d’Emmanuel Macron devant l’Unesco en novembre 2019 (12), le gouvernement a bien lancé en début d’année la plateforme en ligne Jeprotegemonenfant.gouv.fr pour inciter les parents à utiliser des outils de contrôle parental, afin de protéger les mineurs contre leur exposition potentielle ou avérée à la pornographie. Car celle-ci peut avoir des conséquences néfastes sur eux, tant sur leur développement psychologique que sur leur représentation de la sexualité. Insuffisant malgré la volonté présidentielle.
Mais le député Bruno Studer constate que le contrôle parental est très peu utilisé. « S’il était activé par défaut [le contrôle parental], sa désactivation supposera une décision de ceux qui sont responsables de l’intérêt psychique et physique des enfants à savoir les parents », avance le député du Bas-Rhin. Par ailleurs, la loi du 19 octobre 2020 encadre l’exploitation commerciale de l’image d’enfants de moins de 16 ans sur les plateformes en ligne. Le débuté Bruno Studer en était co-rapporteur. Il s’agit de protéger l’enfant influenceur lorsqu’il doit être qualifié de « travailleur-salarié » et/ou percevant des revenus importants relevant d’une activité commerciale (13).

Dans la vraie vie, clause « Roméo et Juliette »
Parallèlement, dans « la vraie vie » si l’on peut dire, les mineurs font aussi l’objet d’une proposition de loi visant à renforcer leur protection contre les violences sexuelles. Porté par le ministre de la Justice, Eric Dupond-Moretti, ce texte a déjà été adopté par l’Assemblée nationale mifévrier et se retrouve devant le Sénat (14). Il prévoit notamment deux nouvelles infractions concernant les mineurs de moins de 15 ans victimes de violences sexuelles commises par des personnes majeures, avec une exception via la clause dite « Roméo et Juliette » (15). @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @

Et combien coûtera la stratégie digitale de l’Europe ?

En fait. Le 19 février, la Commission européenne a présenté sa stratégie numérique pour les cinq prochaines années en matière de données, d’une part, et d’intelligence artificielle, d’autre part. Deux enquêtes sont menées en ligne, jusqu’au 19 mai pour le livre blanc sur l’IA. Mais le financement reste à préciser.

En clair. Le projet de budget 2021-2027 de l’Union européenne, post-Brexit, a déjà été drastiquement revu à la baisse sous la dernière présidence de la Finlande (1). Bien que la nouvelle Commission « Leyen » soit placée sous le signe d’« une Europe préparée à l’ère numérique », sous la houlette de la vice-présidente Margrethe Vestager, l’heure n’est pas trop aux stratégies dispendieuses. En présentant ses « idées et mesures » en matière de données et d’intelligence artificielle, l’exécutif européen n’a pas précisé comment serait financier ses ambitions digitales dans ces domaines. Il est cependant indiqué, en marge de sa communication du 19 février, que « les investissements nécessaires seront possibles grâce à des fonds transférés du Programme pour une Europe numérique [Digital Europe Programme (2)], du Mécanisme pour l’interconnexion en Europe [Connecting Europe Facility (3)] et d’Horizon Europe (4) ». Sans pour autant chiffrer le montant global issu de ces trois véhicules budgétaires pour financer sa stratégie numérique, la Commission européenne indique qu’elle a proposé d’investir, dans le cadre du Digital Europe Programme, « près de 2,5 milliards d’euros dans le déploiement de plateformes de données et d’applications de l’IA ». En ce qui concerne le programme de recherche et développement Horizon Europe, la Commission « Juncker » – avant l’actuelle Commission « Leyen » – avait proposé un investissement ambitieux de 100 milliards d’euros tous secteurs d’activités confondus, dont « 15 milliards d’euros dans le pôle “Numérique, industrie et espace”, au sein duquel l’IA constituerait un secteur clé à soutenir ».
Dans le livre blanc sur l’IA (5), il est mentionné qu’« au cours des trois dernières années, le financement de l’UE en faveur de la recherche et de l’innovation dans le domaine de l’IA a atteint 1,5 milliard d’euros ». En revanche, aucun montant n’est avancé pour le véhicule budgétaire Connecting Europe Facility (CEF2). Mais dans un document informel (non-paper), la Commission européenne évoque une somme de 3 milliards d’euros sur trois ans (2021-2023) « pour le volet consacré aux infrastructures stratégiques de connectivité numérique », au sein de l’Union européenne, dont jusqu’à 75 % en soutien du déploiement d’infrastructures 5G et jusqu’à 25 % pour les investissements dans des infrastructures de données transfrontalières. @