Entretien avec Yannick Meneceur sur l'IA et les droits humains

Portrait d'Yannick Menneceur
Texte

 

Yannick Meneceur est magistrat de l'ordre judiciaire, en disponibilité au Conseil de l'Europe. Actuellement responsable financier, budgétaire et ressources humaines de la direction générale des droits de l’homme et de l’État de droit, il conseille également en transformation numérique et en intelligence artificielle sa direction générale. Il est également maître de conférences associé en droit du numérique à l’Université de Strasbourg et ancien élève de l'Institut régional d’administration de Lille (qualification analyste). En tant que magistrat, il a exercé des fonctions pénales, notamment en matière de lutte contre la cybercriminalité et la contrefaçon. Il a aussi dirigé au ministère de la justice un grand projet informatique national. Au Conseil de l'Europe, il a contribué à l'analyse comparative des systèmes judiciaires européens et a développé une expertise en matière de transformation numérique, notamment en ce qui concerne la régulation de l'intelligence artificielle.  Il a rédigé un ouvrage intitulé “L’intelligence artificielle en procès” paru aux éditions Bruylant en 2020 (prix du Cercle Montesquieu 2021) et réalise actuellement une thèse sous la direction de Madame la Professeure Alexandra Bensamoun. Il a répondu à nos questions sur les travaux qu’il a menés sur l’intelligence artificielle en tant que chercheur et dans le cadre de ses activités professionnelles au Conseil de l’Europe.

Les opinions exprimées ici n'engagent que son auteur et ne reflètent aucune position officielle du Conseil de l'Europe.

La présentation des travaux de recherche 

Yannick Meneceur : Nous ne sommes pas arrivés au bout de la question de l’IA. Mes travaux de recherche se centrent sur la régulation de l’IA européenne et internationale et plus particulièrement le concept et le régime de l’IA. Il faut en effet identifier l’objet de l’IA : de quoi parle-t-on ? À cette fin, j’ai notamment procédé à une analyse sous un angle historique et linguistique en juxtaposant plusieurs définitions de l’IA. Afin de révéler les différentes stratégies définitionnelles, j’ai créé un générateur automatique de définitions de l'intelligence artificielle à partir des éléments clefs de plusieurs définitions de différentes institutions et avec des occurrences aléatoires. Concrètement, ce générateur permet de créer une définition originale de l’IA à partir des définitions de l’intelligence artificielle venant des milieux universitaires, de l’industrie numérique, des organismes de standardisation et des organisations intergouvernementales. Cela m’a permis d’identifier les constantes qui permettent d’élargir ou de rétrécir le champ d’application de l’utilisation de l’IA. D’ailleurs, de manière générale, il serait à cet égard plus juste d’employer l’expression de « système algorithmique ». On trouve des traces de ce choix de terminologie dans diverses publications, dont  le Conseil de l’Europe avec sa recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme. Pour en revenir à ma thèse, son objet consiste à chercher à déconstruire le coup de force sémantique de la conférence de Dartmouth en 1956 qui a imposé le terme d’intelligence artificielle. Comme je l’ai expliqué dans un article intitulé « Pourquoi nous devrions (ne pas) craindre l’IA », et si l’on s’en tient à la définition donnée par la Commission d’enrichissement de la langue française, l’IA est le « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d'assistance ou de substitution à des activités humaines ». On se trouve donc dans le champ des sciences cognitives et à l’intersection avec l’informatique dont l’ambition générale d’automatisation de tâches peut aisément se confondre avec l’ambition précise d’imiter le fonctionnement du cerveau humain pour parvenir à cette automatisation. Pour le reformuler, « l’IA » est une forme particulière d’application de l’informatique, dont la réalité technologique a évolué en fonction des algorithmes et méthodes à la mode : approche descriptive et symbolique dans les années 1970-80, en écrivant des règles logiques signifiantes, et connexionniste aujourd’hui, en laissant la machine « découvrir » les corrélations entre des phénomènes traduits en données (c'est en cela que l’on dit qu’elle « apprend »). Ce qui devrait bien plus nous intéresser donc en termes de régulation, ce sont les questions posées par des systèmes complexes d’algorithmes en général plutôt qu’une technologie précise, et ce pour une application particulière : la prise de décision sans action humaine. Il devrait, de plus, être systématiquement adjoint au périmètre de réflexion sur les données alimentant ces systèmes.

Quant à mon livre, il cherchait aussi à démystifier l’IA et c’est pour cette raison que je l’ai intitulé « L'intelligence artificielle en procès ». Un réflexe d’ancien magistrat qui a appris à instruire à charge et à décharge. L’idée bien entendu n’est pas de condamner l’IA, mais de manière contradictoire, d’en comprendre les enjeux au prix d’une autopsie minutieuse, technique et politique. Dans cet ouvrage, j’expose un premier problème, d’ordre technique, à savoir que les capacités de l’IA sont parfois surestimées pour des préoccupations essentiellement commerciales. Je mène également des analyses sur un deuxième problème, de nature politique, dans la mesure où l’IA peut être utilisée (et surtout instrumentalisée) pour intervenir dans la gestion affaires publiques : c’était déjà ce que Alain Supiot entendait par l’expression de « gouvernance par les nombres ». Je déduis de ces deux séries de « problèmes » la nécessité d’un encadrement juridique contraignant pour encadrer l’IA et ainsi défendre l’État de droit, la démocratie et les droits de l’homme. Cette proposition, lors de la rédaction de l’ouvrage, était alors assez inédite. En effet, en 2018, l’époque était plutôt propice à l’explosion de l’éthique : j’ai collationné plus de 500 documents qui tournent autour de cette question. L’industrie numérique a soutenu l’éthique et a même probablement instrumentalisé cet instrument pour tenter de différer de la réglementation plus dure et ainsi en faire le cœur d’un système d’auto-régulation. Les principes proposés étaient certes des principes philosophiques de très haut niveau qui peuvent faire sens, mais dont l’opérationnalisation est un cauchemar pour les développeurs. Par exemple, comment coder la dignité ? On observe de très grandes difficultés à créer des passerelles entre du concret et des principes éthiques. De plus, l'éthique n’est pas suffisante pour des violations plus sérieuses des droits humains, car elle est dépourvue de sanctions. Je soutiens qu’une réponse juridique contraignante est la seule à même de donner suffisamment de substance aux discours sur l'humain, à créer de la confiance... et ainsi écarter les critiques de « blanchiment » des mauvais usages des technologies par l'éthique.

La présentation du Comité sur l'intelligence artificielle du Conseil de l’Europe

Yannick Meneceur : Le Comité sur l’intelligence artificielle (CAI) est le résultat d’un processus commencé en 2018 au Conseil de l'Europe sur la thématique précise de l’IA. Le Conseil de l’Europe avait bien entendu mené des travaux sur le numérique avant 2018, notamment sur le big data. Cependant, la publication de la charte éthique européenne de l’utilisation de l’IA dans les systèmes judiciaires en décembre 2018 a propulsé la réflexion au sein du Conseil de l'Europe sur la nécessité de textes encadrant l’IA. Cette charte fournit un cadre de principes destinés à guider les décideurs politiques, les juristes et professionnels de la justice dans la gestion du développement rapide de l'IA dans les processus judiciaires nationaux.

Par la suite, le secrétariat général a intégré, à la demande des États membres, l’intelligence artificielle dans sa stratégie en 2019 ce qui a donné lieu au Comité ad hoc sur l’intelligence artificielle (CAHAI). Ce comité a examiné la faisabilité et les éléments potentiels d'un cadre juridique pour le développement, la conception et l'application de l'intelligence artificielle, fondé sur les normes du Conseil de l'Europe en matière de droits de l'homme, de démocratie et d'État de droit. Il a abouti à la nécessité d’un mandat de négociation d’une convention sur l’IA. C’est donc la raison de la création en 2022 du Comité sur l’intelligence artificielle. Ce Comité rassemble des représentants des 46 États membres, des représentants des États observateurs que sont le Canada, les États-Unis,  l'Israël, le Japon, le Mexique et le Saint-Siège, des représentants des autres organes et secteurs du Conseil de l’Europe, des représentants d’autres organisations internationales et régionales travaillant sur la thématique de l’intelligence artificielle telle que l’Union européenne, les Nations Unies (notamment l’UNESCO), l’Organisation de coopération et de développement économiques ou l’Organisation pour la Sécurité et la Coopération en Europe, des représentants du secteur privé et des représentants de la société civile, de la recherche et des milieux universitaires, ayant été préalablement admis comme observateurs par le CAI. Sa première réunion inaugurale a eu lieu en avril 2022. La principale mission du CAI, d’après son mandat, est de parvenir à établir un processus de négociation internationale et de mener des travaux pour élaborer un cadre juridique adéquat sur le développement, la conception et l’application de l’IA. Il peut être composé d’un instrument juridique contraignant à caractère transversal qui inclut notamment des principes généraux communs, ainsi que d'instruments additionnels contraignants ou non contraignants afin de relever les défis liés à l'application de l'intelligence artificielle dans des secteurs spécifiques, conformément aux décisions pertinentes du Comité des Ministres. Le CAI doit maintenir une approche transversale en coordonnant aussi son travail avec les autres comités intergouvernementaux et entités du Conseil de l’Europe qui traitent également des implications de l’IA dans leur domaine d’activité respectif notamment en leur fournissant des orientations conformes au cadre juridique en cours d’élaboration et en les assistant dans la résolution des problèmes.

Dès lors, les instruments juridiques proposés par le CAI doivent être développés en articulation avec les autres instruments en cours parmi lesquels figurent les travaux de l’OCDE et de l’UNESCO sur l’IA et la proposition de règlement sur la législation sur l’IA aussi dite AI Act. La première réunion du CAI a permis de relever les positions des États sur les contenus de l’instrument juridique. De manière surprenante, certains États (dont la France) ont estimé qu’un instrument contraignant n’était pas nécessairement pertinent. La question n’était naturellement pas relative à l’objet de la démarche, mais plutôt liée à une crainte de duplication avec le AI Act. Durant le mois d'août de cette année, les discussions se sont poursuivies entre la Commission européenne et le Conseil de l’Europe afin de clarifier les complémentarités potentielles. La Commission européenne a demandé en fin août 2022 au Conseil de l’Union une compétence exclusive pour négocier, à la place des 27 États membres, la convention du Conseil de l’Europe dans l’objectif d’assurer une meilleure coordination entre le projet de convention du Conseil de l’Europe et le projet de règlement. Comme cela a été le cas avec le règlement général sur la protection des données et le protocole à la Convention 108, il s’agit possiblement de temporiser les travaux du Conseil de l’Europe pour tirer les conséquences des débats sur le règlement. Les mois à venir seront déterminants pour éclairer les complémentarités évidentes entre les deux initiatives : comme le rappelle le protocole d’entente de 2007 entre ces deux organisations, le Conseil de l’Europe reste la référence européenne en matière des droits de l’homme et son projet de convention apporte des dispositions essentielles à l’architecture globale de régulation de l’IA qui se met en place.

Les mandats différents  de la Commission européenne et du Conseil de l’Europe sur les enjeux liés à l’IA

Yannick Meneceur : La position du Conseil de l’Europe s’avère être une position de complémentarité avec les autres initiatives d’institutions sur la gouvernance de l’IA. Le site GlobalPolicy.AI est à cette fin une plateforme en ligne développée grâce à une coopération continue entre des organisations intergouvernementales (dont la Commission européenne) ayant des mandats complémentaires sur l'IA. Le site vise à aider les décideurs politiques et le public à naviguer dans le paysage international de la gouvernance de l'IA et à accéder aux connaissances, outils, données et meilleures pratiques nécessaires pour éclairer l'élaboration des politiques d'IA.

L’instrument juridique proposé par le Conseil de l’Europe répond à son mandat et en particulier à l’obligation positive des États membres de prévenir les violations du droit de l’Homme. Les objectifs de la Commission européenne et du Conseil de l’Europe sont éminemment distincts : la primauté des droits intéresse le Conseil de l’Europe tandis que la Commission européenne dispose d’un pouvoir de marché dans le contexte d’une concurrence avec d’autres États. Pour elle, il s’agit d’utiliser l’outil juridique pour réguler la concurrence et aligner la concurrence sur des règles à l’avantage de l’Union européenne. Il n’est pas question de se substituer au mandat économique de la Commission européenne et sur lequel l’instrument juridique du Conseil de l’Europe ne va pas interférer. Le Conseil de l’Europe ne prendra par ailleurs pas position sur les questions militaires (dual use). Les statuts du Conseil de l’Europe sont à cet égard clairs dans la mesure où il n’est pas possible d’établir des standards sur les questions militaires.

 

À titre personnel, je persiste à penser qu’il y a une complémentarité des démarches ainsi que des instruments existants. Les mandats et les champs d’action demeurent différents. Cependant, du point de vue de la Commission européenne, l’élaboration de standards en dehors de son champ peut aboutir à des divergences d’analyse comme sur l’analyse des risques. La question principale est celle de la définition des échelles de risque et il faut admettre, à ce titre, que les travaux de la Commission paraissent tout à fait matures.

L’impact de l’intelligence artificielle sur la relation médecin-patient 

Yannick Meneceur : Je n’ai pas contribué au travail au rapport du Conseil de l’Europe sur l’impact de l’intelligence artificielle sur la relation médecin-patient. Cela étant, j’ai participé à la première réunion qui a fondé ce rapport pour déterminer les apports ou les risques de l’IA dans cette relation médecin-patient. Deux transformations sont importantes à signaler. La première est l’immission de processus algorithmiques dans la phase de diagnostic pour les médecins. La démarche de diagnostic ne se fonde pas sur uniquement sur de la logique : le médecin dialogue avec son patient et débute par l’anamnèse, dont le processus n’est pas si aisément modélisable. Il faut veiller à prendre garde au solutionnisme. Sans méconnaître les apports considérables du numérique dans la sphère médicale, on ne peut pas raisonnablement remplacer la phase complexe de diagnostic par des algorithmes a priori rationnels, mais manquant des signaux faibles. La seconde transformation est sur la mutation profonde du paiement à l’acte vers un abonnement à un service médical. Certaines sociétés proposent en effet des abonnements mensuels et des objets de santé connectés. Il s’agit d’une surveillance permanente du corps pour anticiper et prédire différents types de maladie grâce à des algorithmes. Autrement dit, une logique économique s’installe et bouleverse la relation classique que l’on imagine avec le médecin.

Le rapport du Conseil de l’Europe examine les systèmes d’IA concernant la relation médecin-patient au regard des principes des droits de l’Homme visés par la Convention européenne sur les droits de l’Homme et la biomédecine de 1997 (la "Convention d’Oviedo"). Plus particulièrement, le rapport étudie l’impact potentiel de l’IA sur les droits de l’Homme selon six thèmes à savoir l’Inégalité dans l’accès à des soins de santé de qualité, la transparence vis-à-vis des professionnels de la santé et des patients, le risque de biais social dans les systèmes d’IA, la dilution de la prise en compte du bien-être du patient, le risque de biais d’automatisation, de perte de compétences et de déplacement de la responsabilité et enfin les conséquences sur le droit à la vie privée.

Dépasser la simple balance bénéfices / risques de l’IA dans l’utilisation de l’IA

Yannick Meneceur : Une chose m’apparaît importante dans les débats actuels sur le numérique et l’IA : la nécessité de dépasser la simple balance bénéfices/risques. Prenons l'exemple de la naissance de l’imprimerie, le bénéfice était de produire des livres de manière industrielle et le risque était le changement de métier. Toutefois, qui aurait pu imaginer les conséquences comme la réforme de l’église ou encore l’éclosion de la démocratie ?

C’est pourquoi il me paraît aujourd’hui limité d’analyser des applications de l’IA sous ce seul angle. Prenons l’exemple de l’intervention des systèmes algorithmiques dans la prise de décision judiciaire (la jurimétrie). Les débats classiques en la matière opposent un risque de déshumanisation à une réduction de l’aléa judiciaire. Le vrai problème selon moi est de passer d’une dimension descriptive de l’emploi des algorithmes (qu’est-ce qui a été décidé ? quels sont les arguments récurrents retenus par le juge ?) à une dimension prescriptive conduisant à affirmer que ce qui s’est passé auparavant va se reproduire inévitablement en établissant un modèle statistique. Or le métier d’avocat est bien d’aller à l’encontre des statistiques... et celui de juge, en tout cas dans notre système continental, de ne pas s’en tenir qu’aux précédents. On crée selon moi une illusion de connaissances, relativement dangereuse. En effet, il est à craindre que ces divers projets de jurimétrie, employés à des fins « prédictives », ne soient voués à créer des prophéties autoréalisatrices sous un vernis technologique aggravant potentiellement les inégalités entre individus.

Les défis à venir en matière d’intelligence artificielle et de droits et libertés fondamentaux 

Yannick Meneceur : Deux choses me paraissent importantes sur le suivi des enjeux relatifs à l’utilisation de l’IA et aux droits et libertés fondamentaux. En premier lieu, il y a un vrai danger de « Human rights washing » c’est-à-dire l’utilisation du respect des droits humains pour se forger auprès du public une image respectueuse, alors que la réalité des faits ne correspond pas, ou insuffisamment, à la teneur explicite ou implicite des messages diffusés. Ainsi, il est fait référence dans le AI act aux droits fondamentaux alors que les analyses d’universitaires sont assez constantes pour relever que les mécanismes précis sont relativement faibles.

En deuxième lieu, il y a quelque chose qui manque dans le débat : il s’agit de la question de la minimisation du recours aux algorithmes. Si on regarde le RGPD, cette notion est assez ingénieuse, cela ne sert à rien de produire de la donnée pour faire de la donnée, vu les risques de biais et de calibrer les algorithmes dans les champs sensibles. De même, on pourrait se dire qu’il n’est pas stupide de réserver les algorithmes que s’il y a une valeur ajoutée substantielle (tant d’un point de vue de consommation d’énergie que de risques relatifs aux biais). Est-on obligé de céder à une croissance exponentielle des algorithmes ? A-t-on envie pour notre société, d’un monde sans alternatives, qui se fonde sur le passé pour prédire l’avenir et qui transforme la liberté en destin (pour paraphraser Antoine Garapon) ? C’est dans cette exacte perspective que des réglementations doivent émerger, afin que la protection des individus et de la société constitue la clé de voûte du développement humain.