Illustration d'un executive order
Gouvernance

Adoption du Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence executive order

A l’heure où l’AI Act européen attend encore le trilogue programmé en décembre 2023, le Royaume-Uni a organisé son sommet pour la sécurité de l’IA fin octobre et les dirigeants du G7 ont conclu un accord sur des principes directeurs et un code de conduite sur les systèmes d’IA avancés. De son côté, le président Joe Biden a publié un executive order sur l’IA le 30 octobre 2023. Il s’agit du Safe, Secure and Trustworthy Development and Use of Artificial Intelligence executive order.

Le Safe, Secure and Trustworthy Development and Use of Artificial Intelligence executive order a été signé par le président états-unien Joe Biden le 30 octobre 2023. Il s’agit du plus vaste ensemble de règles et de lignes directrices en matière d’IA au niveau des États-Unis avec une volonté affichée de dépasser les exigences volontaires de la politique en matière d’IA. L’adoption de cet executive order vise à accroître la confiance en cette nouvelle technologie, à atténuer une grande partie des risques induits par l’utilisation de l’IA et pour en permettre un développement sûr et responsable.

Les principes directeurs et priorités

Afin d’atteindre ces objectifs, l’executive order prône huit principes directeurs et priorités qui doivent être pris en compte avec la législation applicable : 

- l’intelligence artificielle doit être sûre et sécurisée, avec des évaluations solides, fiables, reproductibles et normalisées et des mécanismes pouvant en atténuer les risques; 

- le potentiel de cette technologie doit être libéré par l’innovation, la concurrence et une collaboration responsables. Cela devrait permettre de résoudre certains des défis les plus difficiles de la société et passe par des investissements dans l’éducation et la prise en considération des nouvelles questions de propriété intellectuelle et des moyens de protéger les créateurs et les inventeurs;

- le soutien aux travailleurs est primordial dans le développement et l’utilisation responsables de l’IA. Ce soutien pourra prendre la forme d’une adaptation de la formation professionnelle et de l’éducation. Par ailleurs, l’utilisation de l’IA sur les lieux de travail ne doit pas porter atteinte aux droits des travailleurs ni détériorer la qualité des emplois, mais au contraire doit favoriser le bien-être des employés; 

- l’utilisation de l’IA doit permettre de faire progresser l’équité et les droits civils et assurer la protection contre les discriminations et les préjugés;

- dans le cadre de l’achat, de l’utilisation et de l’interaction avec les produits d’IA, les préoccupations relatives aux protections des consommateurs et celles contre la fraude, les préjugés involontaires, la discrimination, les atteintes à la vie privée demeurent; 

- la collecte, l’utilisation et la conservation des données doivent être légales, sécurisées et atténuer les risques pour la vie privée et la confidentialité;

- les capacités de réglementer et de soutenir l’utilisation responsable de l’IA et aussi les moyens de gérer les risques liés à l’utilisation de l’IA au niveau de l’administration passent par le recrutement des professionnels de l’IA mais aussi par la formation;  

- la coopération avec les alliés et les partenaires internationaux doit être poursuivie pour gérer les risques liés à l’IA, libérer le potentiel positif de l'IA et promouvoir des approches communes face aux défis partagés.

Plusieurs points particuliers de cet executive order peuvent être soulevés.

Le rôle du NIST

Pour assurer la sûreté et la sécurité de la technologie de l’IA, le rôle central dans l’élaboration des lignes directrices, des normes et des meilleures pratiques est attribué au National Institute of Standards and Technology (NIST). En effet, cette agence du département du Commerce, créée en 1901 et qui est chargée de promouvoir l'innovation et la compétitivité industrielle des États-Unis en faisant progresser la science, les normes et la technologie de la mesure, doit établir des normes pour des tests approfondis destinés à casser les modèles d’IA afin d’en révéler les vulnérabilités avant le lancement de ceux-ci. Néanmoins, les normes et les méthodes de test qui seront établis dans ce cadre n’auront pas de caractère obligatoire pour les entreprises. L’administration espère une coopération volontaire de celles-ci.

⇒ Lire aussi : Le rôle du NIST dans la reconnaissance faciale

Une attention particulière portée aux modèles de fondation à intérêt dual et le recours à la Defense Production Act

Un accent particulier est mis sur les questions de défense nationale et de protection des infrastructures critiques. Ainsi, l’executive order veut porter une attention particulière à certains modèles d’IA : les modèles de fondation à intérêt dual. Ceux-ci sont définis comme des modèles d’IA formés sur de vastes données, qui utilisent l’auto-supervision, sont applicables dans un large éventail de contextes et qui ont des niveaux élevés de performance dans des tâches qui posent un risque sérieux pour la sécurité, la sécurité économique nationale, la santé ou la sécurité publique nationale. Les entreprises qui développent ces nouveaux modèles d'IA dont la taille de calcul dépasse un certain seuil ont des obligations d’informations continues. En effet, elles sont tenues d’informer le gouvernement fédéral lorsqu'elles mettent en place le système d'IA, puis partagent les résultats des tests de sécurité conformément à la loi sur la production de défense (Defense Production Act). Cette loi est traditionnellement utilisée pour intervenir dans la production commerciale en temps de guerre ou en cas d'urgence nationale. Elle permet notamment au président des États-Unis d’ordonner aux entreprises privées de donner la priorité aux commandes du gouvernement fédéral.

Les avis et les commentaires du secteur privé, des chercheurs universitaires, de la société civile et des autres parties prenantes devront être sollicités pour ces modèles de fondation à intérêt dual lorsque leurs poids sont largement disponibles sur internet et que cela peut engendrer des risques importants pour la sécurité.

Identification, étiquetage et authentification des contenus générés par IA

Avec l’utilisation massive par le public des systèmes d’IA génératifs, et la montée des deep fakes avec leurs conséquences sur la désinformation et la vie démocratique, un objectif essentiel de cet executive order est de permettre aux utilisateurs d’identifier par un système d'étiquetage l’origine des contenus. Il faut que les utilisateurs soient en mesure de distinguer les contenus générés par l’humain de ceux générés par des systèmes d’IA. Il s’agit d’un facteur de confiance du public. Cet objectif rejoint l’un des principes directeurs qui a fait l’objet d’accord entre les dirigeants du G7, celui de développer et déployer des mécanismes fiables d’authentification et de provenance des contenus. 

Les outils d’étiquetage et de filigrane sont jusqu’à présent ceux désignés pour ce faire et les agences fédérales sont encouragées à les utiliser pour permettre aux utilisateurs de savoir que leurs communications sont authentiques et pour inciter les entreprises privées à en faire de même.

L'accueil des talents étrangers de l’IA

Des procédures facilitées devront être mises en place pour attirer, retenir et permettre le recrutement des talents techniques étrangers dans le domaine de l’IA. Parmi ces facilités figurent la rationalisation du traitement des demandes de visa des personnes voulant venir aux Etats-Unis afin de travailler, d’étudier ou de mener des recherches dans le domaine de l’IA ou d’autres technologies essentielles et émergentes. Plusieurs réglementations relatives au renouvellement des visas et aux programmes liés à l’immigration devront aussi tenir compte des étrangers déjà résidents qui ont de l’expertise ou qui mènent des recherches liées au domaine de l’IA.

La promotion de l’équité et des droits civils et la lutte contre les discriminations et les préjugés

Plusieurs dispositions sont prévues afin de prévenir et traiter les discriminations et les préjugés et de respecter l’équité et les droits civils. Ces discriminations peuvent survenir dans le cadre du système de justice ou de l’administration des avantages sociaux. Ainsi, les experts et les compétences techniques en matière d’IA devraient être présents aux côtés des professionnels chargés de l’application de la loi.

L’executive order demande également aux agences fédérales d'élaborer des règles et des lignes directrices pour différentes applications, telles que la défense des droits des travailleurs, la protection des consommateurs, des patients, des passagers dans le secteur des transports et des étudiants, la garantie d'une concurrence loyale et l'administration des services publics. Ces lignes directrices plus spécifiques accordent la priorité à la protection de la vie privée et à la lutte contre les discriminations et les préjugés.

La prise en compte de l’IA dans l’administration par le recrutement d’experts techniques en matière d’IA

L’executive order constate la nécessité d’une approche coordonnée à l’échelle du gouvernement fédéral. Il incite ainsi à un meilleur recrutement des experts techniques en matière d’IA dans le secteur public. Plusieurs dispositions seront prises afin de permettre une montée en puissance des talents de l’IA au sein du gouvernement et de l’administration. Cela se traduira notamment par le recours à des procédures exceptionnelles dans le cadre des embauches et par l’organisation de formations pour les éléments de l’administration fédérale. 

Par ailleurs, la création d’un White House AI Council est aussi prévue. Ce conseil créé au sein du Bureau exécutif du Président doit coordonner les activités des agences du gouvernement fédéral afin de garantir l’efficacité du développement, de la communication, et de l’engagement de l’industrie. Il doit aussi veiller à assurer l’assistance technique et la mise en œuvre des politiques liées à l’IA. Ce conseil sera présidé par le Deputy Chief of Staff for Policy et composé de fonctionnaires de haut rang. 

Pour pallier les activités fragmentées et décentralisées en matière d’IA dans le cadre des agences gouvernementales, il sera nommé un Chief AI Officer au sein des agences, des conseils internes de gouvernance de l'IA pour un plus petit nombre d'agences ainsi qu’un conseil inter agences, composé initialement des Chief AI Officers, pour assurer la coordination entre les agences.

Le calendrier de mise en œuvre

Une grande majorité des mesures et orientations annoncées dans cet executive order devraient être mises en œuvre dans un délai ambitieux : près des 90% de celles-ci doivent être réalisées dans l’année, et le quart dans les 90 jours suivant son adoption. Néanmoins, il est à remarquer que seules les mesures liées aux risques pour la sécurité nationale de certains modèles de systèmes d’IA ont des échéances précises ; ce qui n’est pas le cas de celles relatives au soutien des travailleurs, à la promotion de l’équité et des droits civils et à la protection de la vie privée. Les préoccupations relatives à la sécurité nationale semblent dominer les débats sur la politique américaine relative à l’IA.

Malgré ces avancées, il faut souligner que la question de la transparence, pourtant mise en valeur dans les principes directeurs et code de conduite de l’IA adoptés par les dirigeants du G7, constitue l’un des rares points qui n’a pas été évoqué par l’executive order.

Pour conclure, il faut remarquer qu’une grande partie du contenu de cet executive order, qui met l’accent sur l’innovation, n’a pas de caractère obligatoire mais repose sur la coopération et l’engagement volontaires des entreprises technologiques. Cet executive order sur l’IA contient peu de limitations et de restrictions. Enfin, il faut relever que ces différentes dispositions sont comprises dans un executive order, qui peut donc être annulé par un autre président et n’a pas encore la force d’une loi votée au Congrès.