Gordon Pennycook : « C’est peut-être l’un des plus grands effets de faux consensus jamais observés. »
https://arstechnica.com/science/2025/07/conspiracy-theorists-think-their-views-are-mainstream
Jennifer Ouellette – 22 juillet 2025 à 22h11 | ARS Technica
La croyance aux théories du complot est souvent attribuée à une forme de raisonnement motivé : les gens veulent croire à un complot parce que cela renforce leur vision du monde, ou bien cette croyance répond à un besoin psychologique profond, comme celui de se sentir unique. Toutefois, selon un article publié dans Personality and Social Psychology Bulletin, cette tendance pourrait également être alimentée par une surconfiance dans ses propres capacités cognitives. Les auteurs ont été surpris de découvrir que non seulement les conspirationnistes sont sûrs d’eux, mais qu’ils ne se rendent même pas compte que leurs croyances sont marginales, surestimant jusqu’à quatre fois le nombre de personnes qui partagent leur opinion.
« Je m’attendais à ce qu’on trouve un excès de confiance, » confie Gordon Pennycook, psychologue à l’université Cornell et co-auteur de l’étude, au site Ars Technica. « Si vous avez déjà discuté avec quelqu’un qui croit aux complots, cela saute aux yeux. En revanche, je ne m’attendais pas à ce qu’ils affirment aussi ouvertement que beaucoup de gens sont d’accord avec eux. Je pensais qu’ils surestimeraient un peu, mais pas qu’ils auraient un sentiment aussi fort d’appartenir à la majorité. C’est peut-être l’un des plus grands effets de faux consensus jamais observés. »
En 2015, Pennycook s’était déjà fait remarquer pour un article démontrant que certaines personnes interprètent des absurdités « pseudo-profondes » comme des réflexions profondes. Lui et ses collègues cherchaient alors à identifier les différences individuelles entre ceux qui sont sensibles à ce genre de discours creux et ceux qui ne le sont pas. Ils ont donc examiné les croyances conspirationnistes, la pensée analytique, les croyances religieuses, etc.
Ils avaient présenté plusieurs phrases générées aléatoirement avec des mots à la mode censés paraître « profonds », mais dénuées de sens logique, ainsi qu’un tweet de 2014 de Deepak Chopra répondant aux mêmes critères. Ils avaient constaté que les participants les moins sceptiques étaient aussi moins logiques et analytiques, et donc plus enclins à juger ces phrases absurdes comme profondément signifiantes. Cette étude avait suscité la controverse, en partie en raison de son ton jugé condescendant et de certaines critiques méthodologiques. Mais elle avait tout de même valu à Pennycook et à ses collègues un Prix Ig Nobel en 2016.
L’an dernier, nous avions rapporté une autre étude de Pennycook, qui testait les effets d’un chatbot IA dialoguant avec des personnes croyant à au moins une théorie du complot. L’étude avait montré que ces conversations réduisaient significativement la force de ces croyances, même deux mois plus tard. Le secret de cette efficacité : l’IA, grâce à son accès à d’immenses quantités d’informations sur un large éventail de sujets, pouvait adapter précisément ses contre-arguments à chaque individu. « Ce travail bouleverse notre vision classique des croyances conspirationnistes, qu’on pensait liées à des besoins ou à des motivations psychologiques, » expliquait alors Pennycook.
Une perception erronée de la réalité
Depuis 2018, Pennycook travaille sur cette nouvelle étude portant sur la surconfiance, intrigué par le fait que ceux qui croient aux théories du complot semblent souvent très sûrs de leurs capacités cognitives — ce qui contredit des recherches antérieures suggérant qu’ils sont plutôt intuitifs que rationnels. Pour explorer cette contradiction, lui et ses collègues ont mené huit études distinctes impliquant plus de 4 000 adultes américains.
Les tâches assignées étaient conçues pour que la performance réelle des participants soit indépendante de la perception qu’ils avaient de leur propre performance. Par exemple, dans une expérience, les sujets devaient deviner le contenu d’une image largement floutée. On leur posait ensuite des questions précises sur leur croyance ou non en plusieurs théories du complot bien connues, comme celle selon laquelle les missions lunaires Apollo auraient été truquées, ou que la mort de la princesse Diana n’était pas un accident. Quatre des études s’intéressaient aussi à la façon dont les sujets percevaient les croyances des autres.
Les résultats ont montré une corrélation nette entre la tendance à la surconfiance et les croyances conspirationnistes. Alors qu’en réalité, en moyenne, seulement 12 % des participants croyaient aux théories proposées, ceux qui y croyaient pensaient que 93 % des autres étaient d’accord avec eux. Cela suggère que la surconfiance est un moteur principal de l’adhésion aux théories du complot.
Ce n’est pas que ces personnes sont massivement surconfiantes, nuance Pennycook, car les études n’étaient pas conçues pour quantifier ce niveau précisément. Mais : « Elles sont surconfiantes, et surestiment massivement à quel point les gens sont d’accord avec elles. »
Entretien avec Gordon Pennycook
Ars Technica : Pourquoi avoir décidé d’explorer le rôle de la surconfiance dans les croyances conspirationnistes ?
Gordon Pennycook : Il y a cette idée populaire que ceux qui croient aux complots sont ignorants, qu’ils ne comprennent rien, qu’ils se moquent de la vérité, et qu’ils cherchent juste à croire ce qui les fait se sentir bien. Sur le plan académique, cette idée se transforme en théories plus complexes, selon lesquelles des besoins ou des motivations profondes nourrissent ces croyances. Ce n’est pas qu’ils tombent dans un piège ; ils s’y dirigent volontairement : « J’aime être ici. Ça me parle. Ça me fait du bien. »
Croire des choses que personne d’autre ne croit peut aussi donner le sentiment d’être spécial ou unique. Il y a aussi des raisons plus légitimes : l’envie de rejoindre une communauté, le sentiment d’appartenance. Et cela peut maintenir la croyance, même si on y adhère moins fortement avec le temps. Comme en religion : certains continuent d’aller à l’église sans croire vraiment. Il faut donc distinguer la croyance de la pratique.
Ce que nous avons observé, c’est que les conspirationnistes croient sincèrement à ces théories, malgré les preuves contraires ou le désaccord généralisé. Pourquoi ? Peut-être à cause de leurs motivations… mais peut-être aussi parce qu’ils ne réalisent tout simplement pas qu’ils pourraient avoir tort. C’est là que la surconfiance entre en jeu.
Ars Technica : Qu’est-ce qui rend ce trait de caractère si puissant ?
Gordon Pennycook : La surconfiance est l’un des moteurs les plus puissants. Si vous êtes trop sûr de vous, vous ne vous posez plus de questions sur ce que vous voyez, vous ne remettez plus en question vos croyances. Vous développez une forme de pureté morale, une conviction absolue que ce que vous croyez est vrai. Vous n’arrivez même plus à imaginer qu’on puisse penser autrement. Il vous est inconcevable que vous ayez tort. La surconfiance vous empêche d’apprendre des autres. Vous ne vous contentez pas de tomber dans le terrier du lapin, vous y faites des tours de piste.
La surconfiance ne s’apprend pas nécessairement : une partie pourrait être génétique. Et elle n’est pas toujours nuisible. Pour lancer une entreprise, par exemple, il faut un certain degré d’optimisme irréaliste. Beaucoup échoueront, mais sans cette surconfiance, peu oseraient. À l’échelle individuelle, c’est risqué ; à l’échelle collective, cela peut être bénéfique.
Ars Technica : Cette surconfiance est-elle liée à l’effet Dunning-Kruger ?
Gordon Pennycook : C’est justement à cause de Dunning-Kruger que nous avons dû développer une nouvelle méthode pour mesurer la surconfiance. Les gens qui sont les moins compétents dans une tâche sont aussi les moins capables de s’évaluer. Cela vient du fait que les compétences nécessaires pour accomplir une tâche sont aussi celles nécessaires pour s’autoévaluer. Donnez un test de maths à quelqu’un de mauvais en maths, il sera surconfiant. Mais s’il est bon en humour et qu’on teste cela, il ne le sera pas.
Nous avons donc conçu des tâches où les gens doivent juste deviner. Il n’y a aucune raison logique de penser qu’ils sont bons. Et pourtant, certains le croient. Ce que nous mesurons, c’est une disposition générale à penser qu’on sait ou qu’on peut faire, indépendamment du domaine. Cela reflète un trait de personnalité, pas une compétence spécifique.
Ars Technica : Surestimer combien de gens partagent leurs idées semble contredire le besoin de se sentir unique…
Gordon Pennycook : En effet. Mais ceux qui croient aux complots ont souvent des opinions contradictoires. La cohérence n’est pas attendue. Ils disent qu’ils sont majoritaires, mais jamais de manière écrasante. Ils ne pensent pas faire partie d’une minorité. Prenez l’exemple du complot sur Sandy Hook (certains pensent que c’était une opération sous fausse bannière) : dans un échantillon, 8 % croyaient que c’était vrai, mais ces 8 % pensaient que 61 % des gens étaient d’accord avec eux.
Ils sont donc très loin de la réalité. Mais ils ne disent pas 90 % non plus. Assez pour se sentir légitimes, mais pas marginaux. J’aurais pu leur demander s’ils se croyaient plus intelligents que la moyenne ou si leurs idées leur semblaient uniques — ils auraient sans doute répondu oui. Mais ce sont des concepts flous. Quand on leur demande un chiffre précis sur le pourcentage d’accord dans l’échantillon, c’est totalement faux.
Ars Technica : Comment lutter contre cela ? L’étude de l’IA offre-t-elle des pistes ?
Gordon Pennycook : Le « débunkage » par IA fonctionne mieux chez les moins surconfiants. Dans nos expériences, les contre-arguments détaillés ont eu plus d’effet qu’on ne le pensait. Après 8 minutes de conversation, un quart des participants avaient changé d’avis, mais 75 % croyaient toujours. Et certains y croyaient tout autant qu’avant. Donc personne n’a encore trouvé la solution miracle. Mais obtenir une évolution globale est déjà une victoire.
Le vrai problème, c’est qu’on ne peut pas discuter avec quelqu’un qui ne veut pas discuter. Dans l’étude, les gens étaient payés, mais même ainsi, l’IA ne peut bien répondre que si la personne s’implique. Et si la personne ne veut pas réfléchir, alors…
C’est pour cela que la surconfiance est un problème fondamental. L’alternative serait une sorte de « rééducation forcée », comme dans une dictature — mais on ne peut pas forcer quelqu’un à changer d’avis. Donc, je ne sais pas s’il y a une vraie solution. C’est peut-être simplement dans la nature humaine.
Ce que j’en pense…
Ça dépend lesquels. Certains savent très bien qu’ils racontent des conneries, mais le font juste comme hobby pour se rendre intéressants sur YouTube ou les réseaux sociaux.
Quand vous prenez Baptiste Friscourt et son acolyte, pensez-vous VRAIMENT qu’ils croient ce qu’ils racontent ?
Non, c’est impossible, ils n’arrêtent pas de raconter tout et son contraire, et même mon gamin relèverait très vite toutes les inconsistances. Seuls les Low-IQ peuvent être subjugués par leurs propos.
Je pense que nos articles font sens:
Analyse – Et pourquoi mentiraient-ils ?
YouTubeurs Promouvant les OVNIS -> Maîtres du Cherry Picking