Gouvernance

Le Défenseur des droits et le réseau Equinet appellent, dans un récent avis, à mettre au cœur de la proposition de règlement sur l’intelligence artificielle le principe de non discrimination

 

 

Le Défenseur des droits est une institution indépendante de l'État. Créée en 2011 et inscrite dans la Constitution, elle s'est vu confier deux missions : d’une part, défendre les personnes dont les droits ne sont pas respectés et d’autre part, permettre l'égalité de tous et toutes dans l'accès aux droits. Conjointement avec le réseau Equinet (European Network of Equality Bodies), réseau européen d'organismes de promotion de l'égalité, le Défenseur des droits a publié un avis intitulé  « Pour une IA européenne protectrice et garante du principe de non-discrimination » le 22 juin 2022. 

Comme déjà expliqué dans un précédent article, le projet de règlement sur l’intelligence artificielle de la Commission européenne dévoilé en avril 2021 vise à introduire pour la première fois des règles contraignantes pour les systèmes d’intelligence artificielle (IA). Cette réglementation fait l’objet d’intenses débats au Parlement européen. Ces deux institutions ont souhaité rappeler une exigence fondamentale : le droit de la non-discrimination doit être respecté en toutes circonstances et l’accès aux droits rester garanti pour toutes et tous.

Les recommandations émises dans l’avis « Pour une IA européenne protectrice et garante du principe de non-discrimination » s’inscrivent dans la continuité des travaux antérieurs du Défenseur des droits. En effet, les rapports « Algorithmes : prévenir l’automatisation des discriminations » et « Technologies biométriques : l’impératif respect des droits fondamentaux » avaient été respectivement publiés en 2020 et en 2021. 

Les recommandations soulignent la priorité de lutter contre les discriminations algorithmiques et insistent sur le rôle que pourraient jouer les organismes de promotion de l’égalité européens dans ce cadre. Parmi les garanties qui doivent être apportées par le règlement, l’avis recommande :

  1. Faire du principe de non-discrimination une préoccupation centrale dans toute réglementation européenne dédiée à l'IA.
  2. Établir dans tous les pays européens des mécanismes de plainte et de recours accessibles et efficaces pour les personnes concernées en cas de violation des principes d'égalité et de non-discrimination ou d’autres droits fondamentaux lorsqu’une telle violation résulte de l’utilisation de systèmes d'IA.
  3. Appliquer une approche fondée sur les droits fondamentaux pour définir les notions de « préjudice » et de « risque », et non une approche tirée des régimes de sécurité des produits.  
  4. Exiger des analyses d'impact sur l'égalité ex ante et ex post à intervalles réguliers durant l'ensemble du cycle de vie des systèmes d'IA.
  5. Assigner des "obligations d'égalité" contraignantes et opposables à tous les concepteurs et utilisateurs d'IA.
  6. Rendre la différenciation des risques possible uniquement après une analyse obligatoire de l'impact sur le principe de non-discrimination et les autres droits humains.
  7. Rendre effective l’exécution des dispositions du futur règlement sur l’IA en obligeant les nouvelles autorités de surveillance nationales à consulter les organismes de promotion de l’égalité ainsi que les autres institutions compétentes en matière de droits fondamentaux
  8. Rendre obligatoire la mise en place et le financement adéquat de mécanismes de coopération qui permette aux différents organismes impliqués dans l’application du règlement sur l’IA de se coordonner au niveau européen comme national. 

LIRE L'AVIS "Pour une IA européenne protectrice et garante du principe de non-discrimination"