Entretien avec Philippe Huneman sur la prédiction, le profilage et l’IA
Né en 1970, Philippe Huneman est un philosophe français. Il est directeur de recherche à l’Institut d’histoire et de philosophie des sciences et des techniques (CNRS/université Paris 1 Panthéon-Sorbonne) où il est responsable de l’équipe «
Il a publié de nombreux articles sur des questions relatives au concept d’organisme, à la sélection naturelle, à l’écologie théorique ou aux modalités de l’explication biologique — ainsi qu’aux théories du complot et à la méfiance envers la science. Il publie aussi bien des articles académiques que des textes sur des questions politiques dans les journaux tels que AOC Média (« Le monde selon GPT
Philippe Huneman a entre autres co-dirigé avec Thomas Heams, Guillaume Lecointre, Marc Silberstein, Les Mondes darwiniens (Éditions Matériologiques, 2011), avec Denis Walsh, Challenging the Modern Synthesis (Oxford University Press, 2017), et avec Christophe Bouton, Temps de la nature, nature du temps (CNRS Éditions, 2018).
Auteur de Métaphysique et biologie. Kant et la constitution du concept d’organisme (Kimé, 2008), et de Pourquoi
Pourriez-vous vous présenter et nous expliquer votre parcours ?
Je suis directeur de recherche à l’Institut d’histoire et de philosophie des sciences et des techniques (CNRS–université Paris 1 Panthéon-Sorbonne). Je suis spécialisé dans la philosophie de la biologie évolutive et de l’écologie. Mon travail porte aussi sur des questions qui sont plus générales comme la philosophie des sciences ou le rapport entre l’histoire de la biologie et la philosophie, et en particulier la philosophie des XVIIIe siècle et XIXe siècle.
J’ai d’abord travaillé sur les relations entre la biologie naissante au XIXᵉ siècle et la philosophie kantienne. Ensuite, je me suis tourné vers des questions qui sont vraiment liées à la biologie évolutive, et notamment les problèmes posés par l’évolution par sélection naturelle qui sont de nature aussi bien métaphysique qu’épistémologique. J’ai développé des options théoriques sur le rapport entre le hasard et la nécessité, et plus précisément entre les modèles stochastiques ou aléatoires et les modèles sélectionnistes pour expliquer des patterns de biodiversité en écologie ou des traits des organismes. De manière générale, je me suis interrogé sur le concept de sélection naturelle et l’explication qui y a recours, ainsi que sur le concept d’individualité biologique ou celui d’organisme (ce qui n’est pas exactement la même chose, mais ce qui entraîne beaucoup de problèmes liés). Et j’ai travaillé avec des biologistes et des écologues sur des questions qui relèvent parfois de la biologie, mais ont à voir avec le type de cadre théorique qu’on devrait privilégier pour penser la biologie évolutive (l’épigénétique, la prévalence des modélisations en réseau…). J’ai aussi écrit de manière assez générale sur ce qu’est une explication en écologie, en biologie, et le rôle des mathématiques dans ces explications.
Tout cela semble assez loin de l’intelligence artificielle, mais un peu plus récemment, j’ai abordé la question de la prédictibilité, aussi bien de l’écologie prédictive que de la génomique, discipline dans laquelle on trouve de nombreuses notions et modèles qui sont plutôt prédictifs qu’explicatifs. Et dans ce cadre j’en suis venu à des problèmes qui concernent l’intelligence artificielle. En particulier, je me suis intéressé aux rapports entre les prédictions fondées sur des statistiques (des corrélations statistiques fortes) et la causalité. Ceci m’a amené à des interrogations très générales sur le rôle des données massives et des algorithmes aussi bien dans la science, épistémologiquement, que dans ce qu’on pourrait appeler la gouvernementalité ou les modes de socialité.
Quand et comment avez-vous découvert l’intelligence artificielle ? Pourriez-vous nous expliquer vos principaux travaux sur le sujet ?
Au sens strict, mon intérêt sur ces questions date d’à peu près dix ans, à partir du constat du rôle du machine learning et des algorithmes dans les statistiques qui soutiennent la prédiction en écologie. Ce dernier point m’intéresse depuis longtemps. On avait alors publié un article avec Virginie Maris, philosophe, Vincent Devictor, écologue, et quelques autres sur les rôles de la prédiction en écologie (''Prediction in ecology: promises, obstacles and clarifications'' dans la revue Oikos en 2018). Les écologues sont extrêmement intéressés par ce sujet dans la mesure où les écosystèmes sont des systèmes très complexes et il est parfois extrêmement difficile de construire un modèle capable de saisir les relations causales entre les éléments.
Dans le même temps, avec l’urgence du changement climatique et la perte de la biodiversité, il faudrait quand même être apte à prédire ce qui va se passer. On a beaucoup discuté la possibilité d’une «
Par ailleurs, j’ai commencé à vraiment aborder les notions d’intelligence artificielle, en tout cas d’algorithmes et de données massives, avec un premier petit article sur le profilage, assez grand public, dans Slate fin 2015, à l’occasion des «
Ce point croise en effet la question déjà ancienne pour moi de la biologie évolutive, ma spécialité épistémologique, même si ce n’est pas évident au premier abord. Néanmoins, ça le devient assez vite si on comprend la notion aujourd’hui passe-partout de biais cognitif, que les psychologues évolutionnistes ont tendance à voir comme une «
Dans mes travaux de philosophie de la biologie, je réfléchis en effet beaucoup à ce qu’est l’adaptation puisque dans le cadre darwinien, la thèse de base est : «
Et donc j’ai écrit le livre qui s’intitule Les sociétés du profilage — Évaluer, optimiser, prédire, où j’essaye de tenir ensemble pas mal de fils. L’un d’eux est la relation entre la théorie anthropologique darwinienne, le paternalisme soft (qui suppose que les gens présentent une pléthore de biais cognitifs relativement irrationnels, donc pas complètement adaptés), et les dispositifs algorithmiques numériques (appareils algorithmiques de traitement de données massives recueillies par un certain nombre d’autres dispositifs, par exemple sur Internet). J’ai voulu comprendre comment les dispositifs algorithmiques de données massives permettent à la fois des opérations de «
Et sur cette société de profilage qui est l’objet de votre ouvrage. Est-ce que vous pourriez nous la définir et puis nous expliquer ses manifestations et les recommandations que vous avez pu émettre dans votre ouvrage ?
Le titre exact de l’ouvrage, c’est Les sociétés du profilage, évaluer, optimiser, prédire. La locution elle-même est calquée sur ce que Michel Foucault appelait dans «
C’est très lointainement un livre marxiste. Pour Marx, dans une société — et ici je simplifie à l’extrême —, il y a les forces productives (par exemple : pour extraire le charbon, faire tourner les moulins, etc.) qui conditionnent ce qu’il appelle les rapports sociaux, ceux qui déterminent les modes d’organisation de la société et l’accès de telle catégorie de personnes aux biens ou aux services dans la société. À partir de la révolution industrielle, on aura pour matrice de ces rapports un face-à-face du capital et du travail, et de tels rapports sociaux vont conditionner la politique, l’idéologie et les luttes politiques. Mais en deçà de cela je me posais la question de savoir quels types de rapports sociaux spécifiques vont aujourd’hui émerger, puisque nos capacités, c’est-à-dire nos forces productives au sens de Marx, sont actuellement déterminées par la technologie, les algorithmes, l’informatique. Foucault parlait de «
Foucault trace un lien entre la discipline et la prison dans son livre «
Donc ma question était : quel type de gouvernementalité se forme-t-il sur la base des techniques actuellement existantes
Cela ne veut pas dire qu’il n’y a plus de travail. On peut dire que la problématique de Marx a été exportée en Asie du Sud-Est et en Afrique, où on trouve encore beaucoup de travailleurs, tous terriblement exploités. Mais pour les autres sociétés (en tout cas européennes, américaines, chinoises…), on peut admettre l’idée que l’on construit et produit l’enrichissement du capital avec la donnée. À la question de savoir comment marche tout cela, la réponse que je donne dans le livre se centre sur l’objet « profil », que j’ai essayé aussi de définir d’une manière relativement simple.
Le mot profil est banal. Mais c’est exactement ce mot qu’on emploie sur certains réseaux sociaux (quand on nous demande par exemple de remplir le profil Facebook ou le profil Tinder…). Et donc les gens sont familiers avec ça. Effectivement, intuitivement, le profil répond toujours à la question «
J’ai choisi le mot «
Alors, comment ça marche et pourquoi ? Un profil, c’est un ensemble de données à propos d’une personne, constitué à la fois par les données qu’elle aura laissées volontairement (typiquement, ceux qui postent leurs photos sur Facebook ou Instagram), et par celles collectées sur la personne via ses comportements à chaque fois qu’elle croise des outils numériques de captation de données (exemple : les capteurs GPS quand la personne prend une trottinette de louage, les données de navigation sur Internet…), c’est-à-dire plusieurs centaines de fois par jour en Asie ou en Occident.
Un profil signifie donc un ensemble de points dans un hyperespace de données (autrement dit, un espace à n
La première : les profils sont prédictifs grâce à la comparaison entre profil individuel et profil collectif. Plus on a de données sur les individus et d’individus à profiler, plus la prédiction va être fine, car dans un hyperespace de données saturé de nombreuses corrélations, il y a de très fortes chances de faire de bonnes prédictions. Au contraire, quand il y a peu de données, des corrélations peuvent être détectées, mais présentent de fortes chances que les prédictions qu’elles appuient soient fausses. En effet, dans ce cas on aura du mal à distinguer entre les corrélations qui tiennent par hasard (comme la covariation forte entre les apparitions de Nicolas Cage dans des films et les décès par strangulation aux USA, selon le site spuriouscorrelations.com [!]) et les corrélations soutenues par des relations causales. Or, c’est quand il existe une causalité sous-jacente que l’on sait prédire avec fiabilité ; du moins c’est comme cela que l’on pensait jusqu’à ce qu’on appelle parfois la révolution des données massives ou big data. L’idée nouvelle ici, que l’on peut maintenant développer à partir de cette affaire de profilage et de données massives, c’est que lorsqu’on dispose de données en très grand nombre dans un hyperespace de données, on obtiendra des corrélations qui permettent des prédictions relativement robustes sans avoir besoin de compréhension causale. Ce qui nous ramène à ce qui a été dit sur l’écologie prédictive où l’on essaye de prédire simplement en identifiant une myriade de corrélations alors même que l’on n’a pas d’idée sur le fonctionnement du système.
La seconde conclusion, en lien avec l’intelligence artificielle, je l’illustrerai par ce fait singulier qu’un algorithme de recommandation n’a pas forcément de notion du contenu des films qu’il sait aimés par certains profils, puisque seul compte le profil collectif, issu de la comparaison entre profils de données de type «
On parle beaucoup de « Big Data », de collecte de données, etc. Mais qu’est-ce qu’est vraiment une donnée ? Existe-t-il une définition générale ? Est-ce un concept bien défini en philosophie ?
C’est un concept assez polysémique. Je vous parlerai d’abord de philosophie et ensuite des données, dans le sens qu’on leur donne maintenant.
En philosophie, la donnée ou la data est prise dans un grand questionnement sur l’origine de la connaissance. Par exemple, en anglais on a l’expression ''sense data'' c’est-à-dire les données des sens. En théorie de la connaissance, vous avez alors deux options de base. Un parti soutient que toute la connaissance vient de ces sense data, ce sont les empiristes, comme Locke, Hume ou Condillac. Et l’autre parti affirme que cela ne se peut pas, car il y a des structures qui ne sont pas dans les données des sens, et sont imposées en quelque sorte par l’esprit : c’est le camp rationaliste, pour résumer. Cette notion de données a donc à voir avec ce qui est saisi par les sens.
Il est clair que dans les débats contemporains sur les données des data scientists, on trouve un sens du mot assez différent de ''sense data''. À ma connaissance, il existe un très grand nombre de travaux qui traiteraient les deux notions simultanément. Mais toujours est-il que dans le second cas, la donnée c’est ce qui vous est donné en fait, alors que dans la thématique philosophique classique de la théorie de la connaissance, c’est ce qui vous est donné par les sens. Dans le monde contemporain, on parle par exemple de big data, de data scientists, contextes où la donnée signifie ce qui est donné à des dispositifs de recueil de données, de captation, lesquels sont généralement digitaux.
La notion de donnée est prise, à mon sens, entre plusieurs autres notions qui sont celles de trace et d’information. Dans l’idée de don, on suppose que la donnée est recueillie de manière assez peu coûteuse. Pour la philosophie de la connaissance classique, il n’y a pas d’effort à réaliser pour voir une donnée : on ouvre les yeux et le monde nous est donné. Avec une donnée numérique, il en va de même, le dispositif correspondant la recueille de manière immédiate. Pour dire vite, les gens, les animaux, les phénomènes météorologiques laissent des traces, et la donnée, elle, est construite à partir de ces traces. Par exemple, quand on prend une trottinette électrique à Paris, on se déplace, on laisse une trace qui est un signal GPS. Ce signal est une donnée, parce qu’une telle trace peut être reliée à vous. Il n’est pas juste un trait dans l’espace des signaux GPS, il est aussi relié à cette trottinette. Et à partir de là, cette donnée est informative sur quelque chose, ça peut être sur vous, ça peut être sur les trottinettes, ça peut être sur Paris, c’est en réalité sur les trois, ensemble, selon la question que l’on va poser et pour laquelle on la mobilisera, immergée dans un immense espace d’autres données.
Ainsi, quand je rapporte ce trajet à tous mes déplacements en trottinette, cela fournit une information sur mon lieu d’habitation (si tous mes trajets en trottinette partent du même point, c’est que c’est mon adresse) ; si je rapporte ce trajet en trottinette à tous les trajets en trottinette faits à Paris, cela donne des informations sur les habitudes de transports des Parisiens. Donc cette donnée détient un potentiel informatif, qu’elle réalise lorsqu’elle est colligée, coassemblée avec d’autres données plus ou moins hétérogènes.
La donnée, c’est cela : elle part d’une trace qui peut être mise en relation avec d’autres traces, et constituer une information sur quelque chose dès qu’on la met en relation avec d’autres données basées sur d’autres traces.
On comprend alors ce que signifie la locution «
Pour comprendre les données massives, il faut comprendre leur usage, donc bien saisir que ces données constituent un hyperespace de données. L’hyperespace est un espace mathématique à un très grand nombre de dimensions, à la différence de cet espace-ci où je me trouve, dit euclidien, qui a trois dimensions : longueur, largeur, hauteur. Maintenant, si on veut représenter abstraitement des choses, on peut imaginer qu’on les place dans un espace en fonction de leurs propriétés. Par exemple, si j’ai une information sur la richesse et la taille des gens, cela fait deux propriétés et donc deux dimensions : chaque individu détermine un point dans cet espace à deux dimensions. Si maintenant j’ai aussi leur poids, les individus seront des points dans l’espace à trois dimensions. Et très souvent, si vous prenez par exemple la démographie usuelle, jusqu’aux années 1980-90, on avait plutôt quatre ou cinq dimensions : le lieu de naissance, la catégorie socioprofessionnelle, le niveau de richesse, le niveau d’étude, etc. Avec les données massives, on travaille avec des centaines ou des milliers de dimensions. Il va donc falloir se représenter un individu dans ces dimensions. Reste que dans un espace à 100-500 dimensions, c’est toujours un point.
Mais comment arrive-t-on à ces données ? Avec tous les dispositifs de recueil de données, le système de localisation GPS pour les déplacements des gens, les bornes de téléphone mobile pour les lieux où ils passent des coups de fil, la localisation des adresses IP. Par la suite, quand les personnes naviguent sur des sites Internet, les ordinateurs, et donc les adresses IP, les recherches Internet et les choix d’achat pourront être corrélés. On aura énormément de données, ce qui va entraîner deux conséquences.
D’abord et très simplement dit, les statistiques qui vont être faites sur des hyperespaces de données vont être bien compliquées. On connaît une ancienne et honorable tradition de statistiques, qui a donné des résultats certes assez sophistiqués : on y fait des régressions linéaires concernant la façon dont une variable informe sur une autre variable. Avec ces techniques on peut ainsi voir comment le niveau d’éducation peut agir sur la catégorie socioprofessionnelle, et le revenu de la famille sur le niveau d’éducation, etc. On sait le faire depuis longtemps. Les statistiques plus compliquées des hyperespaces de données vont, elles, relever assez souvent d’un traitement algorithmique type machine learning, deep learning, etc.
Deuxièmement, à partir du moment où existe cet hyperespace de données, on a la possibilité de réaliser des calculs algorithmiques pour élaborer des statistiques informatives sur un certain nombre de choses. On peut par exemple calculer des scores qui ramasseraient de manière extrêmement simple beaucoup d’informations statistiques.
Prenons l’exemple du «
Une fois qu’on a dit ça, on comprend assez vite comment un certain type d’économie accompagne ce système. On dit très souvent que la donnée est le nouvel or noir, ce n’est pas faux, mais cela veut dire aussi que la donnée constitue une manière d’être informé et même de prédire des choses sur les personnes. À partir d’un recueil de données, on détient une capacité prédictive qu’on peut vendre aux entreprises ou aux gens de pouvoir qui sont intéressés à prévoir ce que vont faire les gens dans une circonstance donnée.
Pour reprendre ce que vous venez de dire, est-ce que les données rendent inutile le souci de vérité ?
Si je repars de l’écologie prédictive, on pourrait dire que plus on dispose de données sur les écosystèmes, plus on a une vraie connaissance de ce qui se passe. Mais on verra alors beaucoup de corrélations sans que cela aille de pair avec davantage de connaissances sur les relations de causalité. On va devenir de plus en plus prédictif sans connaître ce qui se passe au fond. Est-ce mieux
Prenons l’exemple d’une étude sur les proies et les prédateurs. D’une manière générale, les prédateurs mangent les proies (ex. : les renards et les lapins). On va alors construire un modèle d’interactions prédateurs-proies, lequel peut servir plusieurs buts. Le premier but serait de comprendre ce qui se passe entre les renards et les lapins. Le deuxième but, pourrait être la détermination du moment exact de notre traitement par pesticide, il n’y aura plus de proies — à supposer que les proies, des poules ou des lapins, soient notre souci. En effet, si une grande majorité de prédateurs est tuée, dans un premier temps la population de proies va exploser, permettant dans un second temps une remontée rapide des effectifs de prédateurs au-delà de l’effectif initial, et éventuellement une disparition des proies. Cela semble contre-intuitif, mais c’est bien l’allure générale d’une dynamique à laquelle tous les instituts consacrés au contrôle des nuisibles et espèces invasives sont confrontés depuis un siècle.
Le troisième but, enfin, consiste à modéliser de manière très générale les rapports entre proies et prédateurs. À partir de là vous pouvez avoir les équations de prédation de Lotka-Volterra, connues de tous les étudiants en écologie. Ce sont des courbes sinusoïdales liant par deux équations différentielles la taille de la population des prédateurs et la taille de la population des proies. Ces courbes sont un peu décalées l’une de l’autre ; les équations sont très simples donc ne révèlent rien ni sur les proies ni sur les prédateurs. Elles indiquent juste que les prédateurs mangent les proies. Faisant abstraction des propriétés écologiques de ceux-ci, de telles courbes peuvent s’appliquer pour toutes les espèces liées par une relation proies-prédateurs. Mais les équations de Lotka-Volterra, en revanche, ne permettent pas de prédictions sur des espèces précises. Richard Levins soutient donc qu’on aura toujours à peser le réalisme, la généralité et la précision comme valeurs épistémiques distinctes ; et ensuite, il argue qu’il y aura toujours des compromis à faire entre ces trois valeurs dès qu’on veut modéliser un système et sa dynamique.
Un philosophe pourrait ainsi se demander si un modèle général est plus vrai qu’un modèle réaliste. Si les deux modèles sont élaborés raisonnablement, cette question n’a pas grand sens. Les philosophes des sciences sont plus sensibles aux questions de choix de modèles ou de choix de valeur épistémique. Les théoriciens de la connaissance, eux, seront intéressés par le sens des mots «
Donc, si on revient à la notion de profilage, les algorithmes de recommandation sur les sites d’entertainment, les algorithmes de distribution des images et des posts sur Facebook ou Twitter, etc. se rapprochent de ce que le philosophe canadien Ian Hacking (qui vient de disparaître) appelait les «
Or, avec le profilage, il se passe à peu près la même chose. La manière dont les gens sont profilés aura des conséquences sur la façon dont les algorithmes en général ou les algorithmes de recommandation en particulier vont les traiter. Ainsi de ce phénomène aujourd’hui bien connu que la littérature appelle la polarisation, magnifié par les réseaux sociaux : les individus vont dire et émettre des opinions de plus en plus extrêmes dans un sens ou dans un autre, parce que ce qu’ils voient sur les réseaux sociaux leur est propre. Chaque personne sur les réseaux verra donc le monde en fonction de sa famille, de ses amis et connaissances, donc chacun sera exposé à des choses très différentes, même sur des sites d’information reconnus. Néanmoins, chacun aura l’impression que cela est objectif et que la chose lue ou vue est la vérité. David Chavalarias a récemment très bien expliqué l’ancrage de ces mécanismes dans les particularités des algorithmes divers présidant à la distribution des contenus sur les réseaux sociaux ou Google et YouTube (Toxic Data, Paris, 2022).
Voyons ici un autre exemple classique : l’histoire de Cambridge Analytica. Cette société britannique dite d’Intelligence (en anglais) a récupéré plus ou moins frauduleusement des dizaines de millions de comptes Facebook. À partir de cela, elle a conçu des prédictions des potentiels votes au sujet du Brexit, si l’on supposait les votants exposés à certaines informations et images. Ils ont donc isolé des profils dont on pouvait penser qu’ils pourraient voter pour le Brexit, ils ont soumis leurs porteurs à des fake news et surtout ils les ont confrontés à de faux profils adéquatement construits (ce qu’on nomme l’astroturfin — Toxic Data, ici encore, raconte en détail cette histoire.). Grâce à ce déferlement ciblé de faux profils, les Britanniques ont voté majoritairement pour le Brexit. On ne sait pas si les sujets étaient pro-Bexit ou non au moment où on a eu des informations sur eux, peut-être que non. En fait, la question de leurs «
C’est la raison pour laquelle, dans le livre ou ailleurs, je soutiens que la vérité dans ces systèmes-là n’est plus vraiment une norme. Les philosophes disent en général que la vérité est la norme de la croyance, ce qui signifie minimalement cette chose élémentaire : lorsque je tiens pour vraie (=
Continuons avec cette affaire de faux comptes ; dans le livre je parle de ce que certains experts appellent joliment «
«
Quels sont, selon vous, les sujets de recherche à venir à l’intersection de la philosophie et de l’intelligence artificielle ?
Alors il y en a beaucoup, qui tournent autour de la définition de ce qu’est un grand modèle de langage, autour de l’intelligence artificielle générative. Mais il me semble qu’il faut travailler sur des points un peu plus précis que les questions très générales de la conscience des machines et leur intelligence. Il faudrait poser la question sur ce que les machines savent et surtout sur le sens à donner au mot «
On se demande certes si GPT pense, si GPT est intelligent. L’ennui, c’est qu’en philosophie, nombre de termes sont eux-mêmes des questions et le mot «
Il est intéressant ici de rappeler la théorie de Wittgenstein en philosophie de la signification ; cette théorie n’est pas majoritaire, mais est vivement discutée. Selon elle, la signification d’un mot s’identifie à son usage. Ainsi, le mot «
Alors évidemment, on rencontre aussi bien des problèmes éthiques. Dans son ouvrage, La fin de l’exception humaine, Jean-Marie Schaeffer expliquait une tendance qui existe depuis une vingtaine d’années en biologie et qui consiste à étendre le sens de mots très humains à certains animaux non humains, au-delà même des primates et des mammifères. Ainsi, certains biologistes, dont Etienne Danchin, pensent que les membres de la faune ont une certaine culture, la culture résultant d’un apprentissage social. Des expériences ont été réalisées au cours desquelles on montre à un poisson femelle une autre qui, au lieu de s’accoupler avec le poisson dominant mâle, va s’apparier à un poisson de moindre rang. Le poisson femelle à son tour copiera ce comportement, à rebours de ce qui est attendu par la génétique. De ce fait, ce poisson est considéré comme doté d’une capacité à l’apprentissage social et donc d’une certaine culture. Beaucoup d’autres travaux arrivent à cette conclusion. Ainsi, il a été montré que les chants d’oiseaux de la même espèce vont dépendre du coin de forêt dans lequel ils sont, et visiblement les oiseaux transmettent des mélodies de génération en génération. Le moineau n’aura pas le même type de chant s’il vit dans la forêt de Meudon ou dans la forêt de Brocéliande. Ceci est considéré par des écologues comportementaux comme relevant en un sens de la culture.
En anglais existe le mot ''sentience'' qui dit la sensation comme le sentiment de soi, de la douleur ou du plaisir. Des travaux récents étendent cette sentience non seulement aux primates et aux mammifères, mais aussi aux poissons et même aux insectes, comme y insiste depuis quelques années le philosophe Jonathan Birch, travaillant étroitement avec des biologistes qui mènent ces recherches. Au fond, certains termes auparavant réservés aux humains comme les mots, rationalité, culture, sentiment, connaissance, etc., pourraient aussi bien s’appliquer à nombre d’animaux non humains.
Si l’on adopte une vision un peu inclusive de ces choses, on serait tenté d’englober les intelligences artificielles dans cet élargissement. Au lieu de se demander si ces intelligences artificielles sont comme les humains ou si elles pensent comme les humains, il faudrait alors se demander où se place telle intelligence artificielle dans la grande famille des intelligences. C’est une autre manière de poser la question que de la décentrer par rapport aux humains, avec Jonathan Birch par exemple.
Mais une troisième question me semble aussi assez importante, celle de ce qu’on appellerait en anglais l’accountability de l’intelligence artificielle. On prendra ici l’exemple de l’évaluation des propositions d’articles académiques en vue de publication, puisque ça m’est très familier.
Le monde académique vit depuis longtemps une surcharge d’articles publiés et surtout de manuscrits soumis à publication. Selon un rédacteur de revue scientifique, même en philosophie, une discipline concernée seulement par quelques dizaines de revues, on rencontre cette inflation. De telles revues reçoivent près de 3
Mais cette solution peut légitimement créer un malaise parce que, jusqu’à un certain point, l’intelligence artificielle n’est pas directement responsable, ne peut pas réellement être tenue pour responsable ou accountable for ; elle ne saurait répondre d’une recommandation de rejet ou d’acceptation d’un article. Et cette situation fait écho en philosophie au mythe de l’écriture dans le Phèdre de Platon, qu’on évoque traditionnellement face aux personnes rétives aux innovations technologiques. Lorsque le Dieu Theuth a apporté l’écriture aux hommes, écrit Platon, il y aurait eu des résistances et des réflexions contre cette nouveauté, parce que dans l’écriture il se joue une délégation au papier de ce qu’énonce la personne. Face à un livre, il n’y a personne à qui l’on peut poser des questions, du fait de l’absence de l’auteur dans le livre même, laquelle est consubstantielle au principe même de l’écriture : celle-ci se lit, même si l’auteur s’éclipse, même s’il est mort depuis longtemps. Or, ce n’est pas le cas dans la parole et la conversation, dans lesquelles on peut poser directement des questions à un locuteur qui répondra de ce qu’il dit, et donnera les raisons de ses énoncés. Et selon Platon cela explique que l’écriture puisse être considérée comme une grande décadence.
Le lien avec ce dont on parle aujourd’hui est clair : dans un tel raisonnement platonicien, on insiste sur la responsabilité pour ce qu’on dit et l’engagement dans ce qu’on dit. Et si les intelligences artificielles ne peuvent pas être tenues directement responsables d’une évaluation de manuscrits, comment cela peut-il se passer dans d’autres situations ? Par exemple, lorsque deux voitures connectées circulent ? Elles vont probablement mieux conduire que la plupart des gens, du moins leurs performances seront et sont déjà manifestement au-dessus de la moyenne des conducteurs, mais qu’en sera-t-il des questions de responsabilité en cas d’accident ? Doit-on disqualifier ces usages des intelligences artificielles pour ces raisons de responsabilité et d’imputabilité ? Ou bien, faut-il repenser les concepts d’accountability, d’imputabilité ou de responsabilité à l’aune de ces problèmes ? Cela me paraît une question philosophique majeure soulevée par l’avènement des LLM, des IA génératives, et même de l’IA en général.