Drapeaux des pays composant le G7
Gouvernance

Accord entre les dirigeants du G7 sur des principes directeurs et sur un code de conduite en matière d’intelligence artificielle

Un accord portant sur des principes directeurs internationaux en matière d'intelligence artificielle (IA) et sur un code de conduite volontaire destiné aux développeurs d'IA a été trouvé le 30 octobre entre les dirigeants du G7 dans le cadre du processus d'Hiroshima pour l'intelligence artificielle.

Cet accord portant sur des principes directeurs internationaux en matière d'intelligence artificielle (IA) et sur un code de conduite volontaire destiné aux développeurs d'IA intervient à un moment charnière des débats relatifs à la régulation de l’intelligence artificielle. En effet, si l’AI Act européen attend encore le trilogue programmé en décembre 2023, le Royaume-Uni a annoncé la création d’un institut à l’occasion de l’organisation du sommet pour la sécurité de l’IA fin octobre, tandis que de leur côté, les Etats-Unis ont publié un executive order sur l’IA.

Le processus d’Hiroshima sur l’intelligence artificielle générative

Cet accord des dirigeants du G7 est intervenu dans le cadre d’un processus initié en mai 2023, le processus dit d’Hiroshima sur l’intelligence artificielle générative. L’accord s’appuie, entre autres, sur la publication en septembre 2023, sous la présidence japonaise du G7, du rapport intitulé “Processus du G7, dit d’Hiroshima, sur l’intelligence artificielle générative - Vers une vision commune à l’échelle du G7 sur l’IA générative”. Préalablement à sa rédaction, un questionnaire a été diffusé pour faire le point sur les initiatives prises ou envisagées par les membres du G7 en rapport avec les principales possibilités et les principaux risques de l’IA générative. Si le rapport expose l’intérêt du public et le potentiel de développement de l’usage des IA génératives, il pointe aussi l’augmentation des risques liés soit à la désinformation, soit à la violation des droits de la propriété intellectuelle ou de la vie privée dans le cadre de l’usage des IA génératives. Ce rapport se conclut sur le constat de la nécessité de mettre à disposition des outils pour assurer la sécurité, le contrôle qualité, le renforcement des capacités et la confiance.

Principes communs aux principes directeurs et au code de conduite pour les systèmes d’IA

L’accord des dirigeants du G7 porte à la fois sur les principes directeurs internationaux et sur un code de conduite international pour les organisations qui développent des systèmes d’IA avancés. Ces principes directeurs et ce code de conduite doivent s’appliquer pour couvrir les différentes étapes du cycle de vie de l’IA : la conception, le développement, le déploiement et l’utilisation de systèmes d’IA. Ces deux documents s’appuient sur une approche fondée sur le risque ainsi que sur les principes existants de l’OCDE en matière d’IA. Ils s’adressent à plusieurs entités, comprises dans le terme “organisations” : le monde de la recherche universitaire, la société civile, le secteur public ou le secteur privé.

Le premier volet de l’accord des dirigeants du G7 porte sur les principes directeurs internationaux pour les organisations qui développent des systèmes d’IA avancés. L’objectif affiché est de promouvoir une IA sure, sécurisée et digne de confiance dans le monde entier et de fournir des orientations aux organisations qui développent et utilisent les systèmes d’IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d’IA génératifs. Le code de conduite international pour les organisations développant des systèmes d’IA avancés s’appuie quant à lui, en très grande partie, sur les principes directeurs déjà développés par ailleurs. Pour ce code de conduite, les innovations qui peuvent être réalisées avec les systèmes d’IA avancés ne doivent pas aboutir à une violation par les organisations de l’Etat de droit ou à une atteinte aux valeurs démocratiques. Ces innovations doivent adopter une approche centrée sur l’être humain et respecter les droits de l’homme, les droits de la défense, la diversité, l’équité et la non-discrimination. 

Cette liste de principes n’est pas exhaustive et est appelée à évoluer. En effet, l’évolution rapide induite par l’usage de ces nouvelles technologies doit permettre un réexamen et une mise à jour de ces principes directeurs et du code de conduite par le biais de consultations multipartites permanentes. En outre, le caractère non contraignant de ces documents peut inciter à vouloir attendre l’adoption des mesures de régulation ou de réglementation étatique avant d’en réaliser la mise en œuvre. Pour pallier cela, les différentes juridictions sont encouragées à adopter leurs propres approches pour permettre cette mise en œuvre.

Les principes adoptés par l’accord des dirigeants du G7 sur les systèmes d’IA avancés

- Prendre des mesures appropriées tout au long du développement des systèmes d’IA avancés, afin d’identifier, d’évaluer et d’atténuer les risques tout au long du cycle de vie de l’IA. Ces mesures peuvent prendre la forme de mesures d’essai ou encore de mesures d’atténuation pour que les systèmes d’IA ne présentent pas de risques déraisonnables. 

- Utiliser des modèles permettant d’identifier et d’atténuer les vulnérabilités, les incidents, les risques émergents et les schémas d’utilisation abusive après le déploiement des systèmes d’IA, y compris lors de la mise sur le marché. Les mécanismes de surveillance et de signalement des vulnérabilités doivent être accessibles à un ensemble diversifié de parties prenantes. 

- Rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriée et inappropriée des systèmes d’IA avancés afin d’assurer une transparence suffisante et de contribuer à renforcer les responsabilités. Cela implique la publication de rapports clairs et compréhensibles qui peuvent permettre aux responsables du déploiement et aux utilisateurs d’interpréter les résultats obtenus. 

- Oeuvrer en faveur d’un partage responsable des informations et de la notification des incidents

- Elaborer, mettre en œuvre et divulguer des politiques de gouvernance et de gestion des risques liés à l’IA. Peuvent être comprises dans ces politiques, celles de la protection de la vie privée notamment liées à la protection des données à caractère personnel, aux output des systèmes d’IA et les mesures d’atténuation. L’exigence de gestion des risques inclut les processus d’évaluation et d’atténuation de ceux-ci tout le long du cycle de vie de l’IA.

- Investir et mettre en œuvre des contrôles de sécurité solides en matière de sécurité physique, de cybersécurité et de protection contre les menaces internes. 

- Développer et déployer des mécanismes fiables d’authentification et de provenance des contenus. Les mécanismes de type filigrane doivent permettre aux utilisateurs d’identifier les contenus générés par l’IA. De même, lors d’interaction avec un système d’IA, les utilisateurs doivent aussi être informés par système d’étiquetage ou par affichage des clauses de non-responsabilité. 

- Prioriser la recherche visant à augmenter la confiance dans l’IA et d’atténuer les risques pour la société, la sécurité et la sûreté. 

- Donner la priorité au développement de systèmes d’IA avancés pour relever les plus grands défis mondiaux et soutenir l’atteinte des objectifs de développement durable des Nations unies. Parmi ces défis mondiaux peuvent être relevés la crise climatique, la santé mondiale et l’éducation. 

- Promouvoir l’élaboration et, le cas échéant, l’adoption de normes techniques internationales en collaboration avec les organismes de normalisation. 

- Mettre en œuvre des mesures appropriées de saisie des données et de protection des données à caractère personnel et de la propriété intellectuelle. Ces mesures doivent pouvoir atténuer les biais nuisibles et permettre la transparence des ensembles de données de formation et le respect des cadres juridiques applicables.