Les voies de l'IA - Les algorithmes de recommandation et les conséquences sur la santé mentale
Après une première saison consacrée aux deepfakes, "les voies de l'IA" décryptent les algorithmes de recommandation pour cette deuxième saison. Ces programmes informatiques analysent nos données et nos comportements. Ils nous suggèrent du contenu. Comment fonctionnent ces algorithmes de recommandation et quels peuvent en être les effets ? Quel est leur impact sur notre santé, sur l'information ou encore dans le domaine de la culture ? Un podcast franceinfo avec Sorbonne TV et l'Observatoire de l'IA de l’Université Paris 1 Panthéon-Sorbonne.
Des experts vous répondent dans ce premier numéro consacré aux algorithmes de recommandation et leurs impacts sur la santé mentale.
Définition
Camille Salinesi rappelle que les algorithmes sont des programmes informatiques qui peuvent "trier, chercher, coordonner les activités d'ordinateur", et ajoute que parmi tous ces algorithmes, "il y a les algorithmes de recommandation qui sont utilisés notamment sur les médias sociaux ou sur les plateformes pour calculer les contenus que ces plateformes vont vouloir présenter à leurs utilisateurs, en partant d'énormes quantités de données concernant ces utilisateurs". Camille Salinesi souligne que les algorithmes de recommandation jouent un rôle central dans la visibilité des contenus en ligne, en orientant l’attention des utilisateurs à partir de l’exploitation massive de leurs données. Il présente les deux grands principes de la recommandation : le filtrage collaboratif, qui s'attache aux similarités entre utilisateurs, et le filtrage par le contenu, qui centre le calcule calcule des prédictions sur les préférences de produits.
L'économie de l'attention
La conception des algorithmes vient au soutien du modèle économique d'un réseau social. Lorsque ce modèle est celui de l'économie de l'attention, Célia Zolynski et Marc Fadoul relèvent que l'objectif poursuivi va alors être de maximiser l'engagement des utilisateurs. Dès lors, les algorithmes vont recommander de plus en plus de contenus susceptibles de susciter une réaction de l'utilisateur, comme des contenus émotionnels, possiblement extrêmes voire inappropriés. Célia Zolynski ajoute que ces modèles peuvent repérer et jouer sur les vulnérabilités de certains utilisateurs comme un trouble du comportement alimentaire ou encore un trouble dépressif. Si certains contenus, pris isolément, ne sont pas illicites, Célia Zolynski relève qu'aujourd'hui, on discute des effets d'une exposition répétée à ce type de compte dès lors qu'elle pourrait impacter la santé mentale et physique des utilisateurs.
Droit européen et français
Le droit européen pose un premier cadre avec le règlement sur les services numériques, le Digital Service Act (DSA), qui impose aux très grands acteurs de mesurer les risques que produisent leurs activités et de prendre des mesures pour les limiter. La protection des mineurs est également envisagée par l'article 28 du DSA : les plateformes accessibles aux mineurs doivent ainsi assurer un haut niveau de protection de leur vie privée, de leur sûreté et de leur sécurité, ce qui suppose de proposer une conception adaptée à l'âge.
En France, une première plainte a été déposée contre TikTok en France en septembre 2023 pour provocation au suicide. En novembre 2025, le parquet de Paris a annoncé avoir ouvert une enquête préliminaire qui va porter sur la propagation de contenu incitant au suicide.
Le "feed for you" de TikTok
Les algorithmes définissent donc le contenu que les utilisateurs voient sur les applications. Mais comment fonctionnent-ils ? Marc Faddoul (directeur d'AI Forensics) dénonce à cet égard un souci de transparence, soulignant que les algorithmes sont très opaques, sans que l'on puisse comprendre leur fonctionnement. Marc Faddoul explique comment les travaux d'AI Foreinsic visent, à partir de la création de faux comptes utilisateurs, à tester les réactions de l'application et donc, des algorithmes : "Ça nous permet de mieux comprendre quels contenus peuvent être à la fois amplifiés ou parfois censurés par ces plateformes". Sur le fonctionnement du "feed for you" (ou le "fil pour toi" en français) de TikTok, il explique que la première innovation a été de proposer "un flux de vidéos courtes qui sont présentées une par une à l'utilisateur" ce qui permet de conduire vers "une consommation plus passive parce qu'on parce qu'on délègue entièrement le choix du contenu à l'algorithme". L'utilisateur va fournir une grande masse de "données d'apprentissage à l'algorithme qui vont lui permettre de mieux comprendre ses centres d'intérêt, avec une spécificité et une rapidité qui est unique".
Enjeux de santé mentale
L'expertise de l'ANSES présenté par Olivia Roth-Delgado, a mis en évidence certains éléments qui permettent d'expliquer comment il est possible de passer de la captation de l'attention par les réseaux sociaux aux effets de santé mentale. Olivia Roth-Delgado explique qu'il s'agit de mécanismes qui font « perdre le contrôle du comportement en ligne de l'utilisateur », notamment à travers la distribution de récompenses aléatoires comme les likes, la perte de repères temporels avec le scroll infini ou la lecture automatique et la peur de manquer quelque chose. Elle souligne par ailleurs que les adolescents sont particulièrement vulnérables aux stratégies de captation de l'attention au regard de l'immaturité de leur cerveau. L'ultra-personnalisation des contenus qui "fait partie des mécanismes de captation de l'attention" les incite à aller sur les réseaux le soir, leur fait décaler l'heure du coucher. Les adolescents dorment moins et moins bien, ce qui est délétère pour la santé à long terme. Et puis la présentation répétitive de contenus véhiculant des idéaux inatteignables induit une dévalorisation de l'image de son corps, ce qui est un facteur de risque de troubles des conduites alimentaires.
Recommandations
Au titre des recommandations, il est important de rappeler l'importance de l'éducation numérique.
Pour Célia Zolynski, de l'Observatoire de l'IA, l'interdiction des réseaux sociaux aux moins de 15 ans "n'est ni une solution magique ni l'unique solution". L'enseignante se demande, notamment, ce qu'il en sera lorsque l'adolescent aura 15 ans et un jour et qu'il fera face à du contenu "toxique". Dans le prolongement du rapport de l'ANSES présenté par Olivia Roth-Delgado sur les usages des réseaux sociaux numériques et la santé des adolescents publié en janvier 2026, elle souligne la nécessité de mieux encadrer la conception de ces services afin d'assurer une plus grande protection des mineurs et de "garantir un droit au paramétrage pour que chaque utilisateur puisse reprendre la main sur ses interactions". Une plus grande liberté de choix pourrait également, selon Marc Faddoul, conduire à recommander un "pluralisme algorithmique" sur le modèle du pluralisme des médias garanti par la loi.
Où écouter le podcast ?
Ressources complémentaires
- ANSES, Usages des réseaux sociaux numériques et santé des adolescents, 2025
- Étude juridique IRJS, Mineurs et réseaux sociaux, 2025
- Amnesty International, Plongée dans l'algorithme de TikTok, 2025
- Rapport de la Commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, 2025