Entretien croisé avec Justine Cassell et Éric Salobir, membres du Conseil national du numérique

Portraits de Justine Cassel et Eric Salobir
Texte

Linguiste et psychologue de formation, avec un double doctorat de l'Université de Chicago, Justine Cassell travaille sur les interactions entre humains et machines au sein de l’Institut de recherche interdisciplinaire en intelligence artificielle PRAIRIE.

Éric Salobir est le fondateur du réseau OPTIC qui vise à promouvoir le développement des technologies au service de l’humain et du bien commun. Également président du comité exécutif de la Human Technology Foundation, il est prêtre, expert auprès du Saint-Siège et membre de l'Ordre des Dominicains).

Tous deux sont spécialistes de l’intelligence artificielle et membres du Conseil national du numérique, une commission consultative indépendante chargée de conseiller le Gouvernement sur les enjeux numériques. Ils nous livrent un entretien croisé sur les grands principes qui devraient structurer les systèmes d'intelligence artificielle.

Proposer des définitions et des visions de l’intelligence artificielle 

Justine Cassell : Il faut commencer en disant que la définition de l’intelligence a beaucoup changé depuis les années 1950. Avec la croissance d'intelligences au pluriel, il y a une croissance d’intelligences artificielles au pluriel et il y en aura davantage dans le futur. Par ailleurs, pour des raisons historiques, lorsque Marvin Minsky a cherché des financements pour le Dartmouth Summer Research Project, il a proposé de les réaliser avec l'expression d’”Artificial intelligence” pour ne pas être associé à la cybernétique. Dans sa définition, l'intelligence était assimilée aux mathématiques et à la logique. Il s’agissait d’une conception relativement étroite de l'intelligence. Avec le travail d’Howard Gardner et d’autres, on se rend compte que l’on peut être intelligent dans les mathématiques, mais aussi dans les arts ou encore dans les interactions humaines. Travaillant sur l'intelligence sociale et interpersonnelle, je refuse d'adhérer à la définition d'intelligence artificielle basée sur une seule intelligence qui est logique. Il faut également prendre en compte que l'intelligence artificielle n’est pas une technologie. En effet, il s’agit d’une approche et IA pour beaucoup aujourd’hui veut simplement dire l'utilisation de l'apprentissage automatique. Concernant la vision de l’intelligence artificielle, il faut s’interroger sur la manière de concevoir la socialité comme faisant partie de ce que c’est que d’êtres humains. Il faut aussi se questionner sur la façon de créer des machines qui sont interdépendantes avec nous et qui ne peuvent donc pas nous remplacer. Au Conseil national du numérique, nous sommes en train de travailler sur la thématique de la corporalité. Il s’agit d’étudier le rôle du corps et plus particulièrement la corporalité au travail, la corporalité entre personnes, et entre personnes et machines au travail. Cela n’aurait pu être réalisé en 1950, parce que le corps n’était pas pris en compte. Concernant la vision de l'intelligence artificielle, il me semble que les questions essentielles à se poser sont : comment intégrer les nouvelles machines dans la société ? Comment aider les citoyens à profiter de leur présence et non à souffrir de leur présence ?

Éric Salobir : Selon moi, l’expression intelligence artificielle relève de l’abus de langage : je ne crois pas que l’on puisse appliquer le terme d’intelligence à la machine. On ne peut en effet la comparer à une intelligence humaine qui est, par essence, généraliste. À titre illustratif, l’être humain peut organiser ses idées, faire face à l’imprévu et utiliser les différents registres qui vont du calcul à l’empathie. Or une IA est performante dans un domaine comme se localiser ou reconnaître des visages, mais incapable dans d’autres. Un autre critère central définissant l’intelligence est celui de l'auto-conscience. Quand on demande à la dernière IA de Google si elle est intelligente, elle répond qu’elle est un génie à partir de l’analyse  statistique de données, sans pour autant le “penser”. Les controverses récentes sur ce sujet me semblent oiseuses. Cela étant, il n’existe pas de terme suffisamment générique pour définir, à l’attention du grand public, l’ensemble des technologies qu’évoquait Justine. Ainsi, le vocable intelligence artificielle, a-t-il été conservé faute de mieux, même si, comme le dit Luc Julia, concepteur de Siri : “l’IA n’existe pas”. Cette définition d’une intelligence computationnelle pourtant a beaucoup influencé les démarches des neurosciences. En outre, les récents travaux d’Open AI, apportent des briques toujours plus performantes de ce qu’est l’intelligence : des compétences prises en charge par la machine.   Face à ce développement de compétences pointues, se pose la question de notre rapport à l’IA. Comment  s’interface-t-elle à l'humain et comment bâtit-on une société ? Je suis tenant d’une IA pensée comme Intelligence Augmentée, autrement dit, une IA  qui apporte à l'intelligence humaine une capacité, par exemple d’analyse de données, de reconnaissance vocale ou d’identification de patterns,. En effet, il me paraît dommageable et illusoire de chercher à développer des systèmes d'intelligence artificielle qui remplaceraient les humains. 

Mettre les individus en capacité c’est-à-dire de développer les nouveaux savoirs nécessaires à l’adoption du milieu technique plutôt que de numériser 

Justine Cassell : Si nous devions choisir une devise pour le Conseil national du numérique, ce serait l’expression “encapaciter les citoyens vis-à-vis du numérique”. Les technologies numériques et d'intelligence artificielle vont évoluer et nos connaissances et nos capacités de les comprendre et de les apprivoiser doivent évoluer. 

Éric Salobir : J’abonde en ce sens. Au niveau individuel, il faut mettre les gens en situation de pouvoir faire plus. Au niveau sociétal, on a parlé de repolitiser la technologie (au sens de polis, la cité), c'est-à-dire de la replacer au cœur du débat citoyen. L’important, c’est moins la technologie que la société qu’elle nous aide à construire. En effet, d’un côté, la société produit la technologie et celle-ci lui ressemble : elle peut être mercantile, belliqueuse ou même intrusive selon ses concepteurs. D’un autre côté, à mesure qu’on l’utilise, la technologie façonne en retour notre société et il est important que l’on dispose d’un recul sur cette transformation de notre vivre ensemble. Or, s’agissant de l’IA, de nombreux usages sont invisibles. Certes, nous voyons des agents conversationnels ou encore des drones de livraison. Cependant, il y a aussi toute une partie que l’on oublie : dès que l’on utilise une application ou quand on prend le métro, nous sommes en contact avec des systèmes bâtis sur l’apprentissage machine. Notre vie est en interaction permanente avec des technologies sans que l’on s’en aperçoive. Par exemple, deux personnes assises côte à côte ne vont pas bénéficier des mêmes offres pour les prix de trajets en avion sur un comparateur de prix, puisque l’algorithme sait qui sera en capacité de payer plus ou moins cher. Le plus important est de comprendre cela, à l’échelle de l’individu comme de la société. 

Justine Cassell : Je souhaite donner un exemple qui démontre de quoi on parle : il y a des vidéos en ligne d’enfants assez jeunes qui apprennent à leurs pairs comment hacker l'assistant personnel Alexa. Ils sont parvenus à lui faire faire des choses qu'elle n’était pas censée faire. On a tendance à croire que c’est terrible. Pour moi, au contraire c’est bon signe : c’est signe d’une approche saine des enfants vis-à-vis de ces technologies. Ils savent qu’ils peuvent adapter les machines à leurs besoins.. 

Éric Salobir : En ce qui me concerne, je trouve que c'est à la fois bon et mauvais signe : c'est rafraichissant car les enfants ont compris que la machine pouvait les servir au lieu de les asservir. Toutefois, il faut que l’enfant n’ait pas en main une technologie qui surpasserait ses capacités de discernement. C’est comme un enfant qui trouve un outil de jardinage : un râteau peut être dangereux selon son utilisation.  Il faut l’encadrer dans sa découverte et sa créativité. 

Justine Cassell : Je crois profondément en l’intelligence des enfants que l’on a tendance à minorer. L’encapacitation est très importante. Eric a utilisé le mot discernement. On me demande toujours s’il y a une place pour les instituteurs avec tous ces logiciels éducatifs. Je réponds qu’une machine va avoir du mal à apprendre le discernement. Il faudra des enseignants pour apprendre à discerner ce qu'est une évidence ou au contraire une fake new (fausse nouvelle en français). 

Éric Salobir : L’irruption de la machine oblige l’humain à se repositionner et je trouve cela intéressant. Les systèmes d'intelligence artificielle sont pour moi une chance de créer de nouveaux savoirs. Prenons l’exemple de Dall-E-2, un système d’intelligence artificielle capable de générer des images réalistes et artistiques à partir d'une description en langage naturel. On peut ainsi demander à Dall-E-2 de peindre une licorne dans le style de Van Gogh, mais aussi de concevoir des visuels qui auraient demandé des heures de travail à un graphiste. Jusqu’à quel point ce système va-t-il bousculer le design graphique et les arts plastiques ? Cette question n’est peut-être pas neuve : lorsque la photographie est arrivée, la peinture a été obligée de se réinventer. Cette technologie est venue concurrencer ce que faisait l’humain en matière de portraits et de paysages. Elle est pourtant devenue une nouvelle forme d’art à part entière  et je ne suis pas loin de penser que, de leur côté, les courants de peinture abstraites du début du XXe siècle sont une réaction au réalisme des photographies. Une nouvelle fois, l’art va être, selon moi, appelé à se réinventer. Il sera peut-être davantage dans l’énoncé que dans le produit final, ou dans la co-création humain-machine. Les artistes vont s'interroger sur leur pratique et inventer des nouvelles façons d’être. 

Mettre l'intelligence artificielle au service de l’analyse critique et du débat collectif 

Justine Cassell : Il y a des recherches passionnantes en France (voir notamment les travaux de Serena Villata)  sur des logiciels qui vont être capables de désosser un argument, qui vont pouvoir trouver le cœur de l'argument, si ces sources sont fausses et vont nous aident à comprendre ce que ça veut dire. Il est vrai qu’il y a des bots qui mentent et qui produisent des fake news et qui participent à sa viralité. On évoque moins les machines qui nous aident à déconstruire des arguments. On est également capable de concevoir des systèmes d'intelligence artificielle qui s’appuie sur le ton qu’utilise un présentateur pour juger de la veracité de ce qu’il dit. 

Lutter contre les biais dans l’intelligence artificielle 

Justine Cassell : Je travaille sur les biais depuis une vingtaine d’années et plus particulièrement les biais psychologiques et les stéréotypes de genres. Tout le monde a des stéréotypes. On ne peut échapper aux stéréotypes et aux biais puisque nos esprits sont formés à cela. On n’entend pas tout ce qui est dit, mais on fait du pattern matching (filtrage par motif en français). Cela signifie que l’on voit quelque chose et au lieu de l'interpréter dans sa complexité, on retrouve ainsi quelque chose dans nos souvenirs qui ressemble à ce qu’on voit et on pense que c’est la même chose. Par exemple, les enfants se fient souvent à la longueur des cheveux pour déterminer si une personne est un homme et une femme. Cela provient des médias et de l’éducation ainsi que de leur familles et leurs amis. Lorsque nous essayons d'enlever les biais des machines, on doit confronter le fait qu'on ne peut pas enlever de nous-mêmes nos biais. Or les systèmes d’intelligence artificielle sont basés sur des corpus de données recueillies par des personnes. Par conséquent, il y aura forcément des stéréotypes. C’est donc un travail de société qu’il convient de mener pour enlever les biais. Dès lors, comment composons-nous les corpus de données ? Autant que possible, nous devons les faire vérifier par d’autres personnes pour nous assurer que nous avons corrigé ces biais. Par exemple, l’un des biais classiques est celui de la représentativité en particulier pour les systèmes de reconnaissance d’images, le peu de personnes de peaux noires. Sans nombre égal d’images de personnes de peaux de teintes différentes les logiciels ont plus de mal à reconnaître la diversité des gens qui nous entourent.


Éric Salobir : Au niveau sociétal, notre perception du monde est liée à nos identités. On a longtemps pensé que le réel nous préexistait. Cela n’est plus aussi évident pour tous les courants de la philosophie : le réel naît aussi dans la perception que l’on en a: si on est montagnard ou Inuit, on possède par exemple une finesse de langage pour désigner les différentes formes de neige. Or, il faut avoir conscience de ce que nos identités instillent dans les systèmes d’IA que nous concevons. Un biais peut devenir toxique et le seul moyen de détecter la toxicité est de mettre au clair nos valeurs, par exemple la non-discrimination ou le respect des droits humains. Or, ce travail est rarement fait dans le détail et ces valeurs ne sont pas toujours classées par ordre de priorité clair. Or, que l’on privilégie, par exemple, le droit à la liberté ou celui à la sécurité, on obtient des systèmes très différents. Afin de réaliser ce travail,  la diversité au sein des équipes est capitale. Elle permet d’identifier les biais et d’améliorer la conception des systèmes d’intelligence artificielle.