Regard sur

« IA et action publique : construire la confiance, servir la performance » - Étude à la demande du Premier ministre

Le Conseil d’État a livré le 30 août 2022 une étude réalisée à la demande du Premier ministre sur l’usage de l’Intelligence artificielle dans la sphère des administrations publiques en général et des services publics en particulier. Divisée en 4 parties, cette étude fait un état des lieux sur l’IA publique, développe plusieurs points de vigilance à surveiller et enfin suggère une méthodologie afin d’installer cette IA publique de confiance. 

Lien vers l'étude « IA et action publique : construire la confiance, servir la performance »

Les administrations publiques, entités de régulation pouvant utiliser et concevoir des systèmes d’IA

L’IA fait l’objet d’un intérêt croissant cette dernière décennie. Alors qu’elle est utilisée au quotidien, l’imaginaire collectif reste influencé à son propos par les œuvres et les récits de science fiction dans lesquels le robot prendrait le dessus sur l’homme. Néanmoins, l’utilisation de l’IA dans la sphère publique est moins évoquée, ni étudiée. La présente étude du Conseil d’État a ainsi pour objet d’étudier les administrations, non pas seulement en tant qu’entités de régulation, mais aussi et surtout en tant qu’entités pouvant utiliser et concevoir des systèmes d’IA. 

L’étude entend « alimenter la réflexion sur les concepts, les usages, les enjeux juridiques et éthiques et, plus largement, les conditions d’un déploiement pertinent et réussi des outils s’y rattachant au sein de la sphère publique, tant de l’État que des collectivités territoriales et des établissements publics, au service des citoyens et des agents publics ». Elle est considérée comme une « contribution à une stratégie de l’IA publique (…) dans le sillage de la stratégie nationale pour l’IA de 2018 ». L’étude du Conseil d’État veut éviter que le secteur public ne devienne un « spectateur passif », un « régulateur distant » du développement des SIA ou un « apprenti-sorcier numérique » qui ne prendrait plus en compte l’éthique de l’action publique ou « le primat de l’humain sur la technique ». Selon le Conseil d’État, la France doit continuer à être un modèle dans le bon usage des nouvelles technologiques numériques, ce qui a été le cas depuis la loi informatique et libertés de 1978. Il est toutefois précisé que l’étude ne fera que poser des points de repères, abordera les opportunités et évoquera les risques liés à l’utilisation des systèmes d’IA dans la sphère publique qui ne seront considérés que comme des moyens au service des collectivités publiques et des agents publics. 

1. Construire un langage commun et intelligible de l’IA. 

Le premier problème identifié par l’étude est l’absence d’une définition partagée et d’un consensus sur l’intelligence artificielle parmi l’ensemble des acteurs en la matière. L’étude se réfère alors à la notion de système d’intelligence artificielle (SIA) comme « le produit ou le service dans son ensemble, utilisant un ou plusieurs logiciels conçus selon l’une des techniques reconnues comme relevant du champ de l’intelligence artificielle ». Elle relève aussi qu’un système d’IA n’est doté « ni de bon sens, ni de conscience de lui-même, ni de capacité à se corriger de façon entièrement autonome, sans règle ou nouvel intrant lui ayant indiqué qu’il s’est trompé. Il se borne à faire ce que l’humain l’a programmé à faire ».

Il est important que les citoyens et les administrations aient une bonne compréhension de l’IA et des systèmes d’IA pour favoriser la confiance. Pour ce faire, le Conseil d’État fait preuve de pédagogie en expliquant différents termes, notions et acceptions de l’IA et des systèmes d’IA. D’ailleurs, il réaffirme la nécessité pour les citoyens de développer une culture des concepts et enjeux de l’IA, de comprendre le fonctionnement des SIA et souligne l’importance d’acquérir vis-à-vis de l’IA un sens critique, basé sur les informations sur les grands principes de fonctionnement des SIA, de leurs avantages et inconvénients…


Au-delà de la compréhension par le citoyen, il importe que les concepts, définitions et principes soient plus homogènes. Le Conseil d’État propose que le droit national se base sur ceux qui seront donnés par le droit de l’Union européenne, notamment sur la proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle (dite AI act) ou encore sur une éventuelle convention du Conseil de l’Europe. La normalisation peut aussi jouer un rôle en la matière en édictant les normes liées aux exigences techniques et qui seront complémentaires à la réglementation, plutôt relative aux « exigences essentielles ».  

2. Accélérer le déploiement des SIA publics pour en exploiter pleinement le potentiel

Le Conseil d’État constate que la France n’a pas de stratégie nationale propre aux SIA de l’administration. Le cadre général de la Stratégie nationale pour l’IA, issue du rapport de la mission Villani, ne comprend pas de vision d’ensemble à cet égard, ni de planification de déploiement ni de démarche structurée de recensement des cas d’usage existants et des cas d’usage à venir. 

Face à cette absence de recensement préexistant des cas d’usage des SIA publics, le Conseil d’État dresse un panorama illustratif des usages de l’IA publique dans le cadre d’un système d’IA orienté vers un apprentissage automatique ou une approche statistique.

Même si l’utilisation de l’IA dans les services publics peut donner l’impression de se cantonner aux activités de contrôle et de lutte contre les infractions ou dans la fourniture de renseignements aux citoyens, les SIA ont d’autres fonctions à exploiter. L’usage des SIA peut permettre d’automatiser des tâches répétitives ou fastidieuses et de gagner ainsi du « temps public ». Ensuite, leur usage peut améliorer l’information et la réponse aux usagers du service public par l’automatisation de la relation à l’usager ou à l’agent public notamment en permettant une continuité réelle dans le temps du service public ou encore en favorisant la mise en place d’interfaces simples, nécessaires pour répondre à la « crise de la complexité publique ». Enfin, les SIA peuvent constituer un système d’aide à la décision publique pour les collectivités publiques, grâce aux données et informations dont elles disposent, sous réserve d’en assurer l’intégrité et l’objectivité. 

Cet usage peut aussi permettre d’optimiser l’emploi des ressources publiques, que celles-ci soient matérielles ou humaines. Cette optimisation peut constituer un facteur de performance de l’administration.

L’exploitation du potentiel des SIA dans la sphère publique est progressive et inégale. L’étude du Conseil d’État a identifié quelques obstacles qui expliquent cette situation. Ceux-ci tiennent à la mauvaise qualité des données à disposition et au manque de moyens ou encore au risque juridique, au défaut d’acceptabilité ou encore aux questions de sécurisation de l’outil. 

Même si les décideurs publics et la volonté politique peuvent fortement encourager cet usage des SIA, il est recommandé par le Conseil d’État d’être vigilant sur plusieurs points. En premier lieu, le recours à l’IA ne doit pas être considéré comme la solution à tous les problèmes rencontrés par l’administration. L’usage de l’IA ne doit être pensé que comme un moyen. Ensuite, cet usage doit se faire par étapes en commençant par exemple par l’identification des processus qui peuvent se prêter à une décomposition par tâche et qui peuvent ainsi permettre le développement de systèmes d’usage plus modestes. Enfin, le dernier point de vigilance soulevé par le Conseil d’État concerne l’équilibre des usages. Ainsi, l’IA doit non seulement être au service du public mais aussi à celui des agents du service public. De même, si l’IA publique doit permettre le contrôle et peut avoir une finalité répressive, elle doit aussi et surtout être utilisée à des fins d’assistance et de secours et améliorer les prestations et l’accessibilité au service public. 

3. Définir et mettre en œuvre les principes et méthodes de l’IA publique de confiance

Afin d’instaurer une IA publique de confiance, avec les ressources à disposition, tout en respectant les contraintes liées aux dispositions légales et à la déontologie, le Conseil d’État émet une série de préconisations. 

En premier lieu, il souligne que la réflexion à engager sur la mise en place des SIA doit respecter un nombre limité de principes généraux. L’étude en dégage 7 (la primauté humaine, la performance, l’équité et la non-discrimination, la transparence, la sûreté, la soutenabilité environnementale et enfin l’autonomie stratégique). 

  • Principe 1 : la primauté humaine. Les SIA doivent répondre à une finalité d’intérêt général, l’ingérence aux droits et libertés fondamentaux ne doit pas être disproportionnée au regard des bénéfices attendus, l’humain doit se porter garant du bon fonctionnement du SIA, limitation de la dépendance à la machine. 
  • Principe 2 : la performance. Le service rendu au public ne doit pas se détériorer étant donné que la dégradation de la qualité de service en raison de son automatisation est un facteur qui favorise la méfiance en l’utilisation des outils numériques. 
  • Principe 3 : l’équité et la non-discrimination. Un choix doit être opéré parmi les conceptions de l’équité dans le fonctionnement des systèmes. La prévention des discriminations involontaires est exigée. Il faut alors mettre en place un système de gestion des risques, sensibiliser les agents chargés des SIA voire assurer une grande représentativité sociale des équipes de conception. 
  • Principe 4 : la transparence. Il devrait être garanti un droit d’accès à la documentation du SIA, une information des personnes de l’utilisation du SIA ainsi que l’explicabilité et l’auditabilité du système : le fonctionnement du système peut être compris dans un langage simple et l’objectif poursuivi pour son usage clairement donné.
  • Principe 5 : la sûreté (cybersécurité). Le SIA doit intégrer à la fois les enjeux liés à la prévention des attaques informatiques mais aussi doit anticiper et contrer les vulnérabilités particulières (empoisonnement des données, vol de données...etc.) 
  • Principe 6 : la soutenabilité environnementale. La généralisation des SIA peut avoir pour conséquence une aggravation significative de la crise environnementale ; cela est dû aux impacts écologiques des technologies numériques. Il est donc nécessaire que ces conséquences soient prises en compte dans la stratégie. 
  • Principe 7 : l’autonomie stratégique. Les SIA doivent garantir l’autonomie de la Nation, du moins assurer une moindre dépendance en la matière. 

Ensuite, la protection des droits et libertés fondamentaux exige une consécration juridique pleine et entière pour les questions de fond et procédurales et des repères d’ordre déontologique afin de constituer les lignes directrices de l’IA publique de confiance. Même si le règlement européen sur la législation sur l’IA peut constituer une première base en la matière, l’étude du Conseil d’État précise qu’il ne peut pas à lui seul guider les choix normatifs pour le droit national. En effet, à part le fait que les États membres ont des marges d’adaptation et qu’il n’est pas imposé que la norme soit législative ou réglementaire au niveau interne, le règlement a prévu des exclusions sectorielles ; à part les SIA à haut risque, les autres ne feront pas l’objet de prescription spécifique. 

De plus, l’entrée en vigueur de ce règlement IA prendra encore du temps. Le Conseil d’État préconise alors d’anticiper cette entrée en vigueur tardive avec l’adoption et l’élaboration de lignes directrices de l’IA publique de confiance, au lieu d’opter pour l’option législation-cadre. Ces lignes directrices devraient avoir plusieurs rôles : procéder à une uniformisation de la terminologie en la matière, indiquer les conditions de recours à certains types de SIA, les plus sensibles, rappeler aux administrations les règles de droit existantes et l’articulation de leurs différents régimes.

Enfin, un droit au recours effectif doit être prévu sur la légalité des décisions relatives au SIA (la décision de principe de recours à un SIA, les effets de la décision prise à la suite de ce recours) mais aussi en ce qui concerne la mise en jeu de la responsabilité de l’administration devant le tribunal administratif. En l’état actuel des choses, la mise en cause de la responsabilité pénale du fait des SIA publics ne devrait être envisagée que lorsqu’il y a des manquements délibérés à des obligations claires et de première importance. D’une manière générale, cette possibilité d’initier un recours juridictionnel constitue un facteur-clé de la confiance dans l’IA publique.

4. Doter la France des ressources et de la gouvernance adaptées à l’ambition

Dans la dernière partie de son étude, le Conseil d’État identifie plusieurs points relatifs aux ressources et aux choix de gouvernance qui pourraient aider à la mise en place de cette IA publique de confiance en France. 

En premier lieu, en ce qui concerne les ressources humaines et techniques, un arbitrage doit être réalisé entre le choix de développer en interne les SIA publics et celui de recourir à un prestataire externe. Néanmoins, ce recours à l’externalisation ne signifie pas que la question des ressources humaines propres de l’administration soit résolue. En effet, l’externalisation oblige l’administration à disposer des ressources humaines internes suffisamment en pointe en la matière pour définir le cahier des charges, contrôler l’exécution du travail par le prestataire. À cette fin, et en l’état actuel des choses, le Conseil d’État suggère une mutualisation des moyens entre administrations. 

Ensuite, pour favoriser cet usage des SIA, les dirigeants publics doivent être formés à la culture du numérique et aux enjeux de l’IA. Il en est de même pour les différents agents publics. Le recrutement des experts doit être étudié de près et pallier les problèmes qui sont souvent rencontrés : la faible rémunération (existence de plafonds d’emplois et des budgets de personnel), le manque de perspectives professionnelles et les lourdeurs du fonctionnement administratif. 

De même, les différentes problématiques liées au partage des données doivent être attentivement étudiées.  Dans un premier temps, l’inertie et la culture du secret de certaines administrations sont mises en cause. Ensuite, la mise en valeur des données est insuffisante dans la mesure où celles-ci sont captées et valorisées par le privé d’une part, et compte tenu du recours à des logiciels non interopérables et du manque d’interfaces de partage, d’autre part. Un éclaircissement du cadre juridique du partage et de la réutilisation de données entre administrations devrait être réalisé, notamment en prenant en compte les contraintes découlant du RGPD. 

En matière de gouvernance, le Conseil d’État suggère que la CADA puisse avoir soit un rôle de médiateur soit un pouvoir décisionnel de règlement des différends. Il recommande également que la fonction d’autorité de contrôle nationale responsable de la régulation des SIA soit attribuée à la CNIL. En effet, cela permettra de prendre en compte les enjeux liés à la protection des droits et libertés fondamentaux et favoriserait l’articulation entre la régulation des SIA et celle des données, a fortiori celle des données à caractère personnel. Pour ce faire, la CNIL devrait faire l’objet d’une profonde transformation. Cette transformation porterait sur sa structure, la diversification des profils en son sein et supposerait l’allocation de moyens supplémentaires afin que la CNIL puisse être renforcée dans sa fonction d’accompagnement et d’appui à la conformité. 

Pour conclure, l’étude du Conseil d’État propose plusieurs points de repères, sans que sa proposition ne puisse être considérée comme constitutive d’un guide méthodologique complet. Ainsi, pour la mise en place d’une IA publique de confiance, il faut d’abord étudier l’opportunité du recours à un SIA. Pour franchir cette première étape, l’administration se doit de fixer un objectif, évaluer l’acceptabilité sociale du recours à l’IA, évaluer ses ressources humaines, techniques et financières et enfin entamer une réflexion juridique et éthique à propos de son projet. À la suite de cette étude relative à l’opportunité de recourir à un SIA, l’administration doit choisir dans un second temps l’approche IA qu’elle souhaite et les modalités de cette approche. Le choix se portera alors entre le système expert ou l’apprentissage machine, choix qui sera guidé par les différents paramètres du projet (nature de la tâche, ressources disponibles, disponibilité des données exploitables…). Par la suite, il convient pour l’administration de réaliser une évaluation des coûts tout en respectant les règles de la commande publique. 


Article en lien :  Chronologie des principales actions des autorités publiques françaises sur l’intelligence artificielle