Entretien avec Henri Stephanou sur la programmation comme forme de connaissance

Portratit d'Henri Stephanou
Texte

Henri Stephanou est docteur en philosophie de l’université Paris 1 Panthéon-Sorbonne. Il a soutenu en décembre 2023 sa thèse intitulée «Raisonner avec les machines: la programmation des ordinateurs est-elle une forme de connaissance? », réalisée sous la direction de Pierre Wagner.  A côté de son parcours académique, il travaille au côté des entreprises industrielles où il a une expérience pratique du phénomène informatique.

Pourriez-vous vous présenter et retracer votre parcours ?

J’ai 53 ans. Ancien élève de l'École polytechnique (diplômé en 1992) j'ai, par intérêt pour la philosophie, intégré également l'École normale supérieure de la rue d’Ulm (1994) et passé l'agrégation de philosophie (1996). Revenant à un parcours plus classique de polytechnicien, j'ai ensuite mené une carrière en entreprise, dans le conseil, puis dans l'industrie. 

Depuis 2017, je suis revenu à mi-temps à la philosophie, ma vraie passion. Je voulais en particulier m’interroger sur les transformations qu'occasionne l’informatique dans le monde économique et social, et que j'avais observées pratiquement, et avec beaucoup de perplexité, depuis mes différents postes en entreprise. Je me demandais comment des bases techniques aussi simples – des suites de 0 et 1 – pouvaient être mobilisées pour représenter la richesse et la complexité du monde humain jusqu’à le transformer et, dans bien des cas, le restructurer de part en part. J’ai choisi la forme du doctorat parce que je souhaitais développer une réflexion académiquement informée – je me doutais que bien des personnes avaient déjà proposé des réponses ! – , et aussi parce que je ressentais le besoin d’être guidé méthodologiquement. Je dois dire que j’ai été comblé sur ces deux plans, grâce d’une part à l’IHPST qui m’a tout de suite  ouvert au monde de la recherche en logique et en informatique théorique, et d’autre part à la direction patiente de Pierre Wagner.

L'autre partie de mon temps est consacrée à une petite activité de conseiller indépendant de petites entreprises. Cela me permet d’être flexible sur mon emploi du temps.

Dans un de vos articles vous parlez de la « bonne vieille IA », est-ce à dire qu’il y a plusieurs générations d’intelligence artificielle ?

Oui, bien sûr, on parle également des nombreux « hivers » de l’IA. L’IA ne désigne pas une technologie particulière, ni même un programme de recherche, mais plutôt une frontière, une question qui est posée à la technologie. Dès que celle-ci repousse une limite qu’on croyait jusqu’ici infranchissable alors il y a un grand engouement, et on en demande plus, on regarde tout de suite vers la prochaine limite. Comme la technologie ne sait pas y répondre tout de suite, il y a une déception, et ainsi de suite.

Dans mon article sur  la « bonne vieille intelligence artificielle » (« Cette bonne vieille intelligence artificielle : désuétude et survivance de l’hypothèse computationnelle de l’esprit », Philosophia Scientiæ, 26, nᵒ 1 (2022): 3‑21.), je faisais référence à la première IA, dite symbolique, qui a connu son hiver à partir des années 1980. Ce qu’on appelait IA dans ces années était alors devenu, plus prosaïquement, les « systèmes expert » (ce qu’on appelle aujourd’hui les moteurs de règles). Aussi un philosophe, John Haugeland, afin de la distinguer des réseaux de neurones qui faisaient leur apparition à ce moment, proposa de l’appeler “good old fashioned artificial intelligence” (GOFAI). Dans son esprit, il n’y avait rien de péjoratif à cela, mais très rapidement, le terme s’est imposé car il connotait bien le caractère désuet de cette idée. 

Attention, ce n’était pas la technologie qui était désuète, au contraire, les moteurs de règles restent le socle de très nombreuses applications d’entreprise malgré l’évolution des capacités de calcul. On ne tente certes plus de les appliquer à des problèmes logiques ou de traitement du langage, mais ils se montrent d’une efficacité redoutable pour gérer des situations complexes qui présentent de très nombreux cas de figures, des exceptions, des conjonctions d’exceptions, des exceptions aux exceptions… C’est par exemple très utile dans la gestion de la logistique ou de la facturation. Bien sûr on n’appelle plus cela de l’intelligence artificielle, mais ce que font ces systèmes va bien au-delà de ce que pourrait faire le moindre humain, par exemple inspecter une centaine de règles pour savoir quel taux de TVA appliquer, ou à quelle usine adresser telle commande de production. Ce qui est devenu désuet, c’est bien l’idée qu’une telle technologie pourrait ressembler le moins du monde à l’intelligence humaine.

Vous avez récemment soutenu une thèse « Raisonner avec les machines : La programmation des ordinateurs est-elle une forme de connaissance ? » sous la direction de Pierre Wagner, pourriez-vous nous donner les principales analyses, pistes de recherche et vos conclusions ?

C’est une grosse question! Mais, pour le dire le plus simplement possible, ma thèse vise à montrer que ce que l’on appelle globalement la « révolution numérique » a été rendu possible par un changement fondamental dans notre façon de conduire des investigations rationnelles. Cette démonstration s’affranchit donc des notions habituelles de calcul et d’information, par lesquelles on décrit habituellement l’informatique. Je pars de la remarque que, si les ordinateurs sont si polyvalents, c’est qu’ils sont des machines incomplètes qui doivent être programmées afin d’accomplir les tâches qui leurs sont assignées. Une première étude, s’appuyant sur les perspectives des sciences humaines (économie, sociologie, psychologie et histoire du développement logiciel), montre que la portée et la signification de la programmation ne peuvent être réduites à l’image courante, considérablement simplifiée, qu’on peut en avoir. Un programme vise à être systématique, c’est-à-dire une solution exacte et exhaustive à un problème donné.

Programmer est ainsi une certaine manière de résoudre des problèmes, qui consiste à insérer des machines dans des situations soigneusement décrites par avance selon des systèmes de signification prédéterminés afin d’y exécuter une séquence de règles – telle que la démonstration automatique d’un théorème au sein d’une théorie axiomatique, une fabrication industrielle au sein d’un système de production, ou une procédure administrative au sein d’un système bureaucratique. En d’autres termes, l’informatique n’est effective à transformer notre monde humain que dans la mesure où celui-ci se prête par avance à une description et à une reconfiguration systématiques. Mon travail montre que cette possibilité n’est devenue apparente que progressivement, et qu’elle résulte d’une réforme de l’investigation rationnelle, qui se met en place à partir des Temps modernes. C’est dans ce cadre que l’idée de machine devient pleinement concevable, comme lieu d’exécution exacte de systèmes de règles. En apparence rigide et limité, ce concept ne cesse, depuis le début du XXe siècle, de montrer son étonnante flexibilité par sa capacité à reproduire les procédures humaines les plus complexes. 

Cette perspective éclaire les succès récents de l’IA en montrant sa continuité avec les vagues précédentes de la révolution numérique. En effet l’IA désigne une machine qui a été préconfigurée avec un algorithme d’apprentissage, par exemple un réseau de neurones. En tant que telle, avant que l’apprentissage ait lieu, c’est une machine incomplète comme un ordinateur sans programme. Sa programmation consiste dans l’apprentissage lui-même, qui va lui fournir des quantité énormes de données afin que l’algorithme se configure d’une certaine manière, qui réponde à nos attentes. On croit souvent qu’il y a une distinction rigide entre programmes et données ; il n’en est rien ; une touche que vous frappez sur votre clavier est une instruction pour l’ordinateur.

Pourriez-vous nous expliquer votre vision du concept de « pensée mécanique » ? Est-ce qu’il peut s’appliquer à la pensée humaine ?

Oui, bien que je parlerais plutôt de pensée systématique, qui est une forme de pensée humaine. Les machines ne pensent pas (ou plutôt, comme il s’agit d’une question controversée, qui dépend de ce qu’on appelle « penser »,  je dirais qu’on n’a pas besoin d’affirmer cela pour expliquer la puissance de l’informatique). Les machines sont des phénomènes matériels qui obéissent à des règles de fonctionnement connues, sur lesquelles on peut superposer d’autres règles, qui ont de la signification pour nous, comme les règles de l’addition ou de la production en série d’une voiture. On s’est aperçu assez tardivement, vers les temps modernes, que cette pensée systématique, qui résout les problèmes uniquement par l’application ordonnée de règles, pouvait être transposée des mathématiques vers toutes sortes de questions scientifiques et pratiques.

La généralisation de l’usage de l’intelligence artificielle constitue-t-elle une menace ou un atout pour les métiers liés à la programmation ?

C’est indiscutablement un atout, car cela va rendre ces métiers plus intéressants, en les libérant du labeur scolastique auquel ils étaient astreints (se rappeler la syntaxe de tel langage, le nom de telle instruction, sa localisation dans telle ou telle bibliothèque de fonctions, etc.) et les rapprocher de leur fonction essentielle qui est de résoudre systématiquement des problèmes. En même temps, il est également indéniable que l’IA va apporter son propre lot de contraintes, c’est-à-dire des nouvelles formes d’erreur, sans doute plus subtiles et plus difficiles à corriger, avec les dangers que cela comporte. Le risque essentiel que présente une machine pour la société, c’est son obsolescence, c’est-à-dire son fonctionnement qui n’est plus adapté aux besoins de la situation. Il est très difficile de corriger l’obsolescence, et souvent encore plus difficile de « décommissionner” une machine, autrement dit de l’éteindre ou de la remplacer par une machine neuve car souvent, malgré tous ses défauts, elle est devenue indispensable à toutes sortes de problèmes qu’on ne sait plus décrire ni même énumérer exactement. Avec l’intelligence artificielle, je ne sais pas comment ces risques d’obsolescence vont se transformer. Peut-être disparaîtront-ils car l’IA saura s’adapter continûment à de nouvelles situations, ou au contraire peut-être deviendront-ils insolubles car on aura encore plus de mal à décrire les règles auxquelles elles obéissent.

La machine peut-elle dépasser le « décrochage réflexif symbolique » ?

C’est une expression que j’ai utilisée lors de ma présentation sur « la fin de programmation » à l’Observatoire de l’IA pour décrire ce mouvement spécifiquement humain par lequel on peut mettre à distance ce qu’on était justement en train de penser, et constituer ce flux de pensée en objet symbolique afin de pouvoir l’examiner et l’analyser de manière critique. C’est tout simplement la réflexivité. Bien sûr, on peut programmer un ordinateur pour donner l’impression de faire cela aussi, mais il le fera toujours selon un système de règles prédéfini. La machine ne peut pas aller derrière le système de règles dans lequel est écrit son programme source. Certains diront qu’il en va de même pour l’être humain, et que sa pensée obéit aussi à un système de règles prédéfini, par exemple celles du cerveau. Il y a là un présupposé métaphysique énorme, qu’un phénomène comme le cerveau obéit à un système de règles exact (il faut relire là-dessus le début de Matière et Mémoire de Bergson). Mais quand même cela serait le cas, il n’en reste pas moins que, pour l’être humain qui pense, ce retour réflexif est bien une libération, tout au moins partielle, vis-à-vis d’un processus de pensée donné, et une invitation (peut-être illusoire) à penser hors de tout système de règles, et à en inventer de nouveaux.