Entretien avec Christine Dugoin-Clément sur les systèmes d'intelligence artificielle et les stratégies d'influence

Photo portrait de Christine Dugoin Clément

 

Christine Dugoin-Clément est chercheuse associée à la Chaire "Risques" IAE Paris-Sorbonne Business School. Elle a réalisé au sein de l’Université Paris 1 Panthéon-Sorbonne, une thèse intitulée " Analyse d'opérations d'influences modifiant le comportement " visant à étudier la prise de décision en situations extrêmes sous l'effet des nouvelles stratégies digitales à travers le cas d’étude des équipes militaires.

Spécialiste en géopolitique en Europe de l’Est, elle est également l'autrice d’un ouvrage récemment paru intitulé Influence et manipulations: Des conflits armés modernes aux guerres économiques. Elle y développe notamment la thèse d’une possible reproductivité des stratégies d'influence en Ukraine en occident. Pour l’Observatoire de l’Intelligence artificielle de Paris 1 Panthéon-Sorbonne, elle a évoqué les liens entre les systèmes algorithmiques et les stratégies d’influence.

Le paradoxe entourant les systèmes d'intelligence artificielle

Christine Dugoin-Clément : Le paradoxe est inhérent au format des systèmes d’intelligence artificielle et de ce qu'on veut en faire. Par exemple, la reconnaissance faciale est perçue comme une potentielle menace si elle est utilisée en termes de surveillance par l’État tandis que l’utilisation qui pourrait tout autant en être faite par des sociétés privées au profit d’intérêts souvent commerciaux semble susciter une moindre défiance.

Pour que les systèmes d’IA soient efficaces, il faut généralement des données en grande quantité et "propres", c'est-à-dire classifiées. La question demeure quant à la provenance de ces données : les origines sont multiples et leurs propriétaires ne sont pas toujours conscients de l’accès qu’ils autorisent. Enfin, même avec un consentement, reste ce que l’on peut obtenir des données, qui peuvent être mal saisies. Par exemple, des données anonymisées peuvent être "désanonymisées" en utilisant des méthodes de croisement qui peuvent permettre de remonter jusqu’à l’identité prétendument protégée.

Enfin, on a pu observer des IA montées avec un très bon niveau technique mais pour lesquels les enjeux d’éthique, de protection des données ou de libertés sociales n'étaient pas respectés. En effet, si seules la technicité et l’efficacité de ces systèmes sont prises en compte, on aboutit souvent à un produit qui ne respecte pas ces enjeux cruciaux. Autrement dit, quand on monte un projet technique avec une visée opérationnelle dans un temps contraint, le volet éthique et libertés individuelles peut rapidement devenir le parent pauvre. Ce risque pourra se voir augmenté par le besoin constant de disposer de données massives car leurs traitements peuvent porter atteinte aux droits fondamentaux et sociaux.

Cela étant, on observe désormais une prise de conscience de ces enjeux et on dénombre de plus en plus de projets qui intègrent les considérations sociales. Par exemple, on voit de plus en plus de projets conçus avec une approche “human in the loop” (HITL) et “society in the loop” (SITL). Des systèmes tendent à être “ethic by design” c’est-à-dire à intégrer ces questions dès les premiers pas de leur conception afin de respecter les droits fondamentaux et les normes éthiques. Enfin, une autre difficulté réside dans les différences culturelles : en fonction des pays, la vision de l’éthique diffère.

Les "opérations d'influence" et le rôle des systèmes algorithmiques

Christine Dugoin-Clément : Tout d’abord, rappelons qu’il y a opération d’influence quand on parle de différentes stratégies visant à infléchir à son avantage la prise de décision d’un tiers (par exemple, un concurrent, un adversaire ou un ennemi dans un contexte de guerre). Pour ce faire, on peut utiliser différents vecteurs : humains, médiatiques, financiers, économiques, mais aussi dématérialisés avec le développement d’Internet. Par exemple, il y a un véritable enjeu autour des brevets et des normes. Il est d’usage de dire que qui maîtrise une norme, maîtrise un marché ce qui peut donc altérer la compétitivité d’adversaire ou de concurrent, parfois même jusqu’à altérer le système économique d’un adversaire.

Concernant le niveau informationnel, la finalité sera d’obtenir une modification des prises de décision et des comportements d’un individu, d’un groupe social, ou plus largement d’une population. Cette finalité peut être atteinte par l’entremise de la diffusion de contenus choisis dans le but de servir le penseur de la stratégie d’influence. Il existe différents degrés de gradations, selon que l’objectif sera de persuader un tiers, d’instiller le doute entre des individus ou entre des groupes  (par exemple entre un corps social et le gouvernement d’un État), ou encore d’altérer la confiance entre deux parties prenantes pour modifier l'exécution de consignes ou d’ordres. Dans tous les cas, il en résulte une modification du comportement. Cela pourra être léger, comme un désengagement, mais pourra néanmoins suffire à désorganiser un groupe ou une institution.

Les opinions publiques ont découvert avec l’affaire Cambridge Analytica l'intérêt de disposer de données, notamment psychométriques, pour tenter des opérations d'influence qui disposaient alors des données relatives à plusieurs millions d'utilisateurs Facebook. L’affaire des ingérences russes dans les élections présidentielles américaines de 2016 tentant de favoriser le candidat Donald Trump ont fini de mettre au jour la réalité de ce type de tentatives. Toutefois, les opérations d'influence peuvent aussi avoir pour finalité de semer le trouble, de casser la confiance, ce qui aurait pour effet de bloquer la prise de décision d’un État, d’une entreprise et d’un concurrent.

L’opinion publique est un enjeu d’importance dans le champ de la stratégie, particulièrement dans le monde militaire, qui étudie ce sujet depuis plusieurs années. Récemment les doctrines militaires russes évoquent même une prévalence des opérations non-militaires (incluant les opérations d’influence) sur les opérations militaires. Sur le terrain, l'Ukraine faisait déjà face à un conflit dans le Donbass depuis 2014 avant l’invasion de la Russie du 24 février dernier. À ce titre, elle a été un laboratoire à ciel ouvert pour les cyberattaques mais aussi pour les opérations d’influence et les campagnes de désinformation, de mésinformation, mais aussi de propagande. Différents canaux peuvent alors être mobilisés : les blogs, les chaînes de radios et de télévision en ligne, et évidemment les réseaux sociaux. C’est d’ailleurs sur les réseaux sociaux que travaillaient les "trolls" qui peuplaient la fameuse ferme découverte à Olgino dans la banlieue de Saint-Pétersbourg. Pour mémoire, ces hommes et femmes travaillaient 7j/7 et 24h/24 pour pousser une dialectique en faveur de la position de Moscou sur différents réseaux sociaux.

Cependant, au-delà de l’action purement humaine, des algorithmes et des logiciels peuvent être utilisés pour optimiser le temps de réaction en ligne. Ainsi, des "bots" peuvent être utilisés pour diminuer le temps de réponse, accélérer la viralité d’un sujet ou d’un hashtag que l’on souhaite voir devenir viral.

Cependant, concernant les deepfakes (qui sont des contenus synthétiques créés avec une IA afin de produire des contenus synthétiques réalistes, des vidéos ou audios par exemple), on a constaté qu’ils étaient peu utilisés en matière d’influence politique ou d'atteinte à la probité ou à l’image de personnes publiques. Au début du conflit russo-ukrainien, un deepfake de qualité très médiocre a été diffusé. On y voyait le Président Zelensky demander aux Ukrainiens d’abandonner le combat. C'était de très mauvaise qualité : le raccordement du visage au corps était par exemple grossier et mal réalisé si bien que ce contenu synthétique a facilement et rapidement été identifié comme tel. Cependant, jusqu’alors, on a pu observer l’utilisation de deepfakes dans un contexte de guerre.

Les moyens de lutte au niveau individuel et collectif contre les stratégies d’influence  

Christine Dugoin-Clément : Souvent, on pense que faire de la débunkerisation ou mettre en évidence une fausse nouvelle va faire tomber une stratégie d'influence. C’est honorable mais cela ne donnera pas de résultats à 100%. La fausse information qui a circulé aura déjà convaincu une partie du public qui pouvait être préalablement sensible au contenu falsifié ou distordu. Dans ce cas, et particulièrement dans les sphères complotistes,  la débunkerisation pourra renforcer la force du contenu initial par effet boomerang : la partie persuadée par la fausse nouvelle estime que les journalistes ou les pouvoirs publics ne veulent pas que la vérité soit perçue.

La lutte contre les stratégies d’influence passe par l'éducation, il faut développer l’éducation au numérique qui permet une prise de conscience de ces questions et permet aussi d’apprendre à lire et à déconstruire un contenu, une image, etc. En outre, cela aide à comprendre comment fonctionnent les systèmes algorithmiques et quels sont leurs enjeux, à être plus circonspect à la vue, à l'écoute ou à la lecture des contenus reçus.

En outre, notre empreinte numérique est de plus en plus développée, et se nourrit de l’usage des outils du quotidien, et beaucoup n’ont pas conscience de laisser ces empreintes. Ces empreintes facilitent la définition de profils de plus en plus fins qui permettent de créer des narratifs taillés sur mesure et beaucoup plus percutants. Actuellement, les informations circulent avec une grande rapidité, on parle de viralité, d'infobésité. Les individus sont habitués à consommer des informations très courtes, synthétiques, disponibles immédiatement, qui ne nécessitent qu’un temps d’attention et de concentration court. Le temps de la réflexion et de la vérification n’est que rarement pris. Cette rapidité, cette habitude et la nature des contenus diffusés renforcent les réactions émotionnelles qui se passent d’analyse et balayent la démarche de vérification. Alors que s’il y a une prise de conscience du risque, un individu sait qu’il peut être ciblé, la prise de recul sera plus naturelle. Ce sera d'autant plus important qu’il y a une pluralité de supports. On peut observer des contenus construits dans le but de tromper, parfois totalement synthétiques ; on peut aussi observer des informations vraies, mais décontextualisées lors de leur diffusion. À titre d’exemple, des images de charniers humains avaient été diffusées en 2016 accusant l’Ukraine de massacre. L’image était vraie, mais elle n’avait pas été prise en Ukraine, mais en Bosnie pendant le conflit des Balkans.

Bien sûr des outils sont créés pour mettre en lumière les chemins empruntés par une fausse information, d’autres détectent les deepfakes dans le but de bloquer ces contenus avant qu’ils ne deviennent viraux et participent à la propagation des informations falsifiées, parcellaires ou décontextualisées. Mais ils sont encore parfois peu connus ou peu accessibles. Enfin, le temps de vérification de la masse de données est parfois peu compatible avec celui de la demande de contenus.