Si l’intelligence artificielle est souvent accusée d’alimenter la désinformation en ligne, via des bots malveillants ou des contenus artificiels indiscernables du réel, plusieurs travaux de recherche montrent qu’elle pourrait aussi devenir une alliée inattendue contre la crédulité qui fragilise les démocraties.
Depuis plusieurs mois, les chercheurs David Rand, Gordon Pennycook ou encore Tom Costello démontrent qu’un simple dialogue entre une personne et un grand modèle de langage, comme ChatGPT, peut réduire durablement l’adhésion à des croyances complotistes. Pour le climatosceptiques et les antivaccins notamment, les effets ont été mesurés et sont récurrents. L’IA n’efface pas la croyance, mais fissure la certitude.
Pourquoi cela fonctionne-t-il ? D’abord parce que ces modèles, sollicités sur des questions scientifiques, ne reproduisent généralement pas les théories du complot. Ils renforcent la confiance dans la science. Ensuite, leurs réponses s’adaptent au langage et aux convictions de l’interlocuteur, évitant les confrontations d’ego typiques des réseaux sociaux. Infatigables, capables de déconstruire chaque argument en temps réel, elles opposent enfin une résistance continue aux super-diffuseurs de fausses informations.
En dialoguant avec l’IA, les individus sont aussi amenés à reconnaître leur propre « illusion de profondeur explicative », cette tendance à surestimer ce que l’on comprend vraiment. Mais ces promesses appellent à la prudence. Une dépendance cognitive pourrait émerger en s’en remettant trop aux jugements de l’IA. Surtout, les mêmes mécanismes de personnalisation peuvent servir à diffuser des mensonges avec une efficacité redoutable.
(Source : L’Express, 05.12.2025)
