L’éthique, mode alternatif de régulation de l’IA et vecteur de confiance dans l’innovation

Les intelligences artificielles (IA) fascinent et semblent faciliter nos vies. Pourtant, elles nourrissent aussi des craintes et de véritables questionnements quant à leur impact sur la société, voire l’humanité. L’éthique peut constituer l’un des piliers de la confiance nécessaire au développement de l’IA.

Par Mahasti Razavi, associé gérant, et Laura Ziegler, avocat senior, August Debouzy

Il existe une distinction entre des IA dites « faibles » et des IA dites « fortes ». L’IA faible permet de reproduire, le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique prévu à l’avance, dans la majorité des cas de façon bien plus efficace et rapide que l’homme, mais sans aucune forme d’improvisation. Si elle peut simuler le raisonnement, inclure une dimension apprenante et résoudre des problèmes, ce type d’intelligence artificielle ne permet en aucun cas de reproduire les fonctions cognitives de l’intelligence humaine.

IA « faible » : source de préoccupations
Chatbots, outils de reconnaissance vocale (Assistant/Google, Cortana/Microsoft, Siri/Apple, Alexa/Amazon) ou de reconnaissance d’images, ou encore robotique : cette forme d’IA « faible » est celle qui nous accompagne dans notre vie de tous les jours.
A cette IA « faible » est opposée une « IA forte », qui serait non seulement capable
de reproduire des aptitudes à la réflexion et à l’interaction intelligente (analyse, raisonnement, actions rationnelles), mais pourrait en outre comprendre son propre fonctionnement et avoir ainsi une réelle « conscience » d’elle-même. A cette étape, l’intelligence de la machine dépasserait donc celle de l’homme dans tous les domaines, y compris dans la créativité et dans l’agilité sociale. Si l’IA forte fait l’objet d’une préoccupation légitime en termes d’éthique, il n’en demeure pas moins que l’IA
« faible » doit également nous interpeller à cet égard.
Dans ce cadre, l’éthique apparaît comme un enjeu majeur pour penser et développer une IA responsable. L’une des premières sources d’inquiétude et de questionnements se concentre autour de l’effet pervers des algorithmes et de l’IA pouvant répercuter
et surtout amplifier un certain nombre de discriminations. En effet, si l’IA permet un traitement plus efficace de la donnée et a priori plus objectif de la donnée, l’algorithme est toujours le reflet d’un système de valeurs et de choix de société, à travers son paramétrage, ou ses données d’apprentissage. Aussi, les critères sur lesquels reposent les systèmes prédictifs peuvent être à l’origine de la reproduction et/ou de l’accentuation d’inégalités, de phénomènes d’exclusions et de discrimination, généralement causés par des biais cognitifs (1). Ces biais peuvent affecter directement ou indirectement les algorithmes (dès leur conception ou parce qu’ils n’auront pas été assez entraînés) mais encore les données intégrées dans le système ou générées par celui-ci (manque de diversité des bases de données d’apprentissage, par exemple).
Un algorithme permettant le fonctionnement d’un outil de reconnaissance faciale, s’entraînant sur une base de données qui ne serait pas assez diverse, peut ainsi présenter des défaillances dans la reconnaissance de visages. Autre illustration : les biais de genre révélés par la plateforme publicitaire de Google, AdSense, par laquelle les femmes se voyaient proposer des offres d’emploi bien moins rémunérées que celles adressées aux hommes, à un niveau similaire de qualification et d’expérience. Les algorithmes de prédiction, qui présentent aussi des risques d’exclusions, peuvent permettre aux entreprises d’anticiper les comportements ou les tendances de comportement de leurs clients, et d’automatiser en grande partie certains processus
ou d’aider à la prise de décision (2). Cette automatisation et cette dynamique de personnalisation des offres et des services peuvent naturellement avoir pour effet d’exclure l’accès de certaines personnes à ces services. C’est d’ailleurs l’une des raisons pour laquelle ce sujet a été très strictement encadré par la législation applicable en matière de données à caractère personnel et renforcée avec l’entrée en application du RGPD (3).
L’effet algorithmique qui consiste à classer et à filtrer des données, analysées en grande masse, est également un sujet préoccupant : ces algorithmes apprenants analysant nos comportements auront tendance à nous proposer constamment des objets (en fonction des achats effectués et des prédictions de nos futurs besoins),
des personnes (nos amis visibles sur les réseaux sociaux), des cultures (profilage
« Netflix ») conformes à nos goûts.

Risque d’enfermement algorithmique
Cela n’aura-t-il pas pour effet de nuire à un certain pluralisme et plus généralement
à la diversité culturelle ? A l’échelle de la société, ce phénomène pourrait constituer
– notamment en matière politique – un danger pour la qualité du débat public, la diversité de l’information et plus généralement le fonctionnement de notre démocratie. Alors que l’IA investit même les rédactions journalistiques et permet de traiter un grand nombre d’informations, de rédiger automatiquement certains articles ou encore de faire de la veille d’actualité, la mise en place – dans ce cadre précis – d’une IA responsable et éthique permettant d’éviter cet enfermement algorithmique, de lutter contre les fakes news, de respecter les engagements de diversité, de pluralisme et de déontologie de l’information paraît là encore indispensable.

Equilibre entre traitement et accès
En outre, l’IA impliquant l’utilisation massive des données à des fins d’apprentissage, elle pose là encore de nombreuses interrogations sur l’équilibre entre le traitement et l’accès aux données par les acteurs de l’IA et la protection des données à caractère personnel et des droits des personnes concernées. Sans algorithme, les données sont muettes, et sans donnée, l’algorithme est aveugle. A ce sujet, les principes de
« minimisation des données », l’encadrement du profilage, de la prise de décision exclusivement automatisée et les obligations de transparence figurant dans le RGPD marquent déjà les premières bases d’une technologie souhaitée plus responsable et respectueuse des droits et libertés des individus, même si ce n’est pas sans générer
de nombreuses difficultés en pratique. Plus généralement, la recherche de ce point d’équilibre entre la nécessaire protection des libertés individuelles et le développement libéré d’une technologie utile pour l’homme nourrit l’ensemble des réflexions autour de l’IA. S’il n’existe pas aujourd’hui de cadre juridique global et déterminé permettant de prendre en compte toute la complexité de ces nouvelles technologies intelligentes, les principales problématiques juridiques en matière notamment de propriété intellectuelle, de responsabilité, de protection des données à caractère personnel peuvent être aujourd’hui tout à fait encadrées par les textes existants. Parce qu’il s’agit par nature d’une technologie en mouvement, il nous semble « urgent de ne rien faire ! » et souhaitable que l’IA s’appuie sur la régulation existante et évolue de manière progressive avec celle-ci. Les règles et les limites qui lui sont applicables peuvent être par ailleurs conçues, dans un premier temps, de manière non contraignante, telle une soft law de plus, afin d’atteindre une certaine maturité. C’est ici tout le sens de l’éthique pensée comme une méthode alternative aux régulations, permettant de déclencher les consciences individuelles et collectives, devenue outil d’accompagnement du droit. L’éthique est constituée par un ensemble de normes édictées par l’industrie auxquelles celle-ci choisit de donner une force contraignante. Le contenu de ces normes peut reprendre en partie le droit existant, mais également aller bien au-delà. C’est en ce sens que s’est positionnée la Cnil (4) dans son rapport, publié le 15 décembre 2017, sur les enjeux éthiques des algorithmes et de l’IA (5). Elle a décliné six recommandations opérationnelles dans ce domaine – plaçant l’éthique au cœur de celles-ci en insistant notamment sur la nécessité de : former à l’éthique tous les acteurs-maillons de la chaîne algorithmique, rendre les algorithmes compréhensibles, constituer une plateforme nationale d’audit des algorithmes, encourager la recherche sur l’IA éthique ; et renforcer la fonction éthique au sein des entreprises (6). L’éthique apparaît désormais comme un enjeu crucial et un outil indispensable pour sensibiliser les utilisateurs mais également ceux qui contribuent à la conception et la commercialisation de ces systèmes d’IA aux enjeux attachés à son usage. Cette prise de conscience est très présente notamment chez les professionnels du secteur privé qui ont intégré l’éthique au cœur de leurs transformations digitales (lire encadré ci-dessous).
A ce jour, le développement d’une IA éthique semble être à l’évidence porté par une régulation alternative, choisie et sectorielle, à la recherche d’une gouvernance adaptée. Elle nécessitera toutefois inévitablement une mobilisation internationale d’ampleur, ou à tout le moins européenne, pour permettre l’identification des grand enjeux de société et éviter l’émergence d’éventuelles dérives : un « shopping éthique » (7) ou encore un nouveau phénomène d’« Ethicwashing » (8). L’IA éthique pourrait au contraire constituer la clé de l’attractivité des entreprises, puis des Etats conscients de son importance pour leur leadership en matière d’innovation. @

ZOOM

Les initiatives pour une IA éthique se multiplient
De très nombreux acteurs provenant de l’industrie de la tech – mais pas uniquement – se sont saisis du sujet et ont mis en place un grand nombre d’outils, au sein même de leurs organisations, pour développer une IA éthique et de confiance (9). Microsoft ou IBM, ont adopté, par exemple, des chartes et des codes éthiques sur l’utilisation de l’IA. Google annonçait le 7 juin 2018 – en réaction à une mobilisation d’une partie de ses salariés (10)– le lancement d’une charte éthique, articulée autour de sept principes très concrets applicables à l’IA (11). Ces sociétés ont également très récemment uni leurs forces en créant le 28 septembre 2018 un partenariat dans ce domaine : « Partnership on Artificial Intelligence to Benefit People and Society » (12), afin de définir de bonnes pratiques dans ce domaine. Du côté de la justice cette fois, le comité éthique et scientifique de la justice prédictive a adopté le 19 novembre 2018 une charte éthique qui est à ce jour uniquement contraignante pour la « Legaltech Predictice » qui s’y est volontairement soumise, mais qui a vocation à terme à servir à l’ensemble des acteurs utilisant l’IA dans le monde du droit. Plus récemment encore, le 3 décembre 2018, le Conseil de l’Europe adoptait la première charte européenne relative à l’usage de l’IA dans le monde judiciaire (13). Enfin, le monde scientifique, de la recherche et de l’industrie a appelé à un développement responsable de l’IA (14) en créant vingt-trois principes fonda-mentaux d’orientation de la recherche et des applications de l’IA (15). @