Éducation à l’esprit critique : connaître les biais cognitifs pour les déjouer et les inhiber
Éducation à l’esprit critique : connaître les biais cognitifs pour les déjouer et les inhiber
L’esprit critique ne peut s’exercer qu’en étant bien conscient des biais cognitifs qui affectent nos jugements et nos décisions et qui peuvent donner de « bonnes raisons » pour des peurs infondées, les peurs faisant le lit des croyances et des résistances aux informations scientifiques. Il est possible d’aiguiser l’esprit critique des enfants et des adolescents en leur présentant les principaux biais cognitifs qui affaiblissent l’esprit critique (les leurs mais aussi ceux des adultes). Comme ces biais cognitifs sont des raccourcis de la pensée auxquels il est difficile d’échapper, il est indispensable de les connaître pour pouvoir les inhiber.
On peut citer quelques biais cognitifs parmi les plus fréquents pour une éducation à l’esprit critique :
- l’effet d’ancrage et le poids de nos idées a priori : la première information que nous recevons influence notre manière de percevoir les informations suivantes (cela est particulièrement vrai lors de négociations financières : le premier prix proposé a valeur de référence même s’il est décorrélé du réel);
- le coût lié au fait d’abandonner les croyances : plus de temps, d’énergie, d’argent ont été investis en fonction des croyances qu’on nous présente comme erronées, plus on aura du mal à “lâcher” ces croyances (idem avec la souffrance : les humains ont besoin de donner du sens à leurs souffrances et donc auront du mal à abandonner l’idée qu’ils auraient pu faire sans, comme c’est le cas des personnes qui défendent la fessée comme méthode éducative indispensable et inoffensive);
- le biais de confirmation : on a tendance à chercher des informations qui vont renforcer nos croyances (et à ignorer – même inconsciemment – ou à relativiser/ rejeter les informations qui ne vont pas dans le sens de nos croyances),
- l’effet Dunning-Kruger, ou effet de surconfiance : les personnes les moins qualifiées dans un domaine surestiment leur compétence (elles ne sont pas conscientes de tout ce qu’elles ne savent pas) alors que les personnes les plus qualifiées sont plus prudentes (elles sont conscientes de tout ce qu’elles ne savent pas, de ce qu’ils restent à découvrir et des causes pluri-factorielles, les empêchant de tomber dans une pensée facile et uni-factorielle)
- l’influence de nos émotions, en particulier de la peur, et de nos motivations (plus grande sensibilité aux risques qu’aux bénéfices, préférence du statu quo, poids du conformisme…),
- la difficulté de notre cerveau à appréhender les statistiques et les chiffres (perception erronée du hasard, surestimation des très faibles probabilités, biais de proportionnalité, biais d’ancrage…),
- l’attirance pour des explications simples et causales (refus des explications multifactorielles, confusion entre corrélation et causalité…),
- le biais d’autorité : nous avons tous tendance à surévaluer la valeur de l’opinion d’une personne que l’on considère comme une autorité, c’est-à-dire un expert (qu’il le soit réellement ou qu’il soit simplement présenté comme tel),
- l’effet Barnum (ou « effet de validation subjective » ou « effet de validation personnelle ») : nous avons tendance à accepter une vague description de la personnalité comme s’appliquant spécifiquement à nous-mêmes (nous avons tendances à compléter les “trous” et à fabriquer du sens, comme c’est le cas dans l’astrologie par exemple)
- l’effet retour de flamme : quand nous sommes confrontés à des preuves en contradiction avec nos croyances, nous avons tendance à les rejeter et à nous refermer davantage sur nos croyances initiales (ces croyances se retrouvant paradoxalement renforcées par des preuves contradictoires),
- l’effet de groupe : nous sommes soumis à l’effet de groupe quand nous donnons la priorité à la conformité à l’avis du groupe plutôt qu’aux preuves et informations scientifiques
- le biais de cadrage : c’est la tendance à être influencé par la manière dont un problème est présenté. (par exemple, la décision d’effectuer une action risquée est influencée par la manière de présenter le taux de succès ou d’échec : même si les deux chiffres fournissent la même information, présenter le taux de succès va faire pencher la décision en faveur de l’action et présenter le taux d’échec va faire pencher la décision en défaveur de l’action)
- l’effet de halo : la perception que nous avons d’une personne (ou d’un groupe) est influencée par l’opinion que l’on se fait d’une de ses caractéristiques personnelles (par exemple, une personne jugée comme “belle physiquement” est perçue comme intelligente et digne de confiance).
Cette liste des biais cognitifs (non exhaustive) peut déjà être un support utile pour passer des informations à la moulinette afin d’exercer l’esprit critique.
De même, il est utile de savoir ce qui différencie une donnée scientifique d’une opinion et ce qui fait la valeur d’une donnée scientifique par-rapport à une autre. La méthode scientifique, c’est tout d’abord l’expérimentation dans des conditions contrôlées et la reproduction des expériences. En médecine, une sorte de pyramide des niveaux de preuves est désormais admise. La Haute autorité de santé distingue trois niveaux pour établir ses recommandations nationales :
- un « faible niveau de preuve » correspond à des séries de cas (succession de témoignages et de descriptions), des études rétrospectives ou des études de cas témoins ;
- une « présomption scientifique » s’appuie sur des essais comparatifs randomisés de faible puissance, des études comparatives non randomisées bien menées ou des études de cohorte ;
- une « preuve scientifique établie » repose sur des essais comparatifs randomisés de forte puissance, une méta-analyse d’essais comparatifs randomisés ou une analyse de décision basée sur des études bien menées.
Quand les avis et recommandations des agences sanitaires et des académies sont convergents à l’échelle internationale, on peut estimer qu’ils reflètent un consensus scientifique sur lequel s’appuyer.
Jean-Paul Krivine, rédacteur en chef de la revue Science et pseudo-sciences, rappelle qu’aucun humain ne peut espérer maîtriser l’ensemble des connaissances scientifiques actuelles. C’est bien tout l’intérêt de l’éducation à l’esprit critique : nous sommes obligés de faire confiance aux experts. “Une société fondée sur le progrès scientifique devient paradoxalement une société de croyance par délégation, et donc de confiance” dit Gérald Bronner (sociologue). La question cruciale est donc de savoir que croire et à qui faire confiance : Aux scientifiques ? Mais alors, auxquels ? Aux journalistes ? Aux politiques ? Aux agences sanitaires ? Aux diverses associations ? Aux réseaux sociaux ? À Internet ? À Wikipédia ?
Krivine insiste donc sur l’importance de la connaissance des biais cognitifs humains et des manières de reconnaître une information scientifique fiable d’une autre moins fiable ou d’une opinion. Il est effectivement possible qu’un expert soit en situation de « conflit d’intérêts » ou lui-même victime de ses propres biais cognitifs, mais, quand les avis sont largement ou complètement convergents, il est raisonnable d’estimer qu’ils sont le reflet du meilleur de la connaissance sur lequel le processus de décision peut légitimement s’appuyer.
Les biais cognitifs sont indispensables à l’espèce humaine.
Pour autant, les biais cognitifs sont utiles à l’espèce humaine pour plusieurs raisons :
- ils assurent des repères qui permettent la vie en société;
- si nous n’étions sûrs de rien, nous serions déboussolés, nous ne pourrions jamais prendre de décisions, nous serions torturés par des doutes incessants.
Ils permettent également la survie : face à un danger imminent, la fuite immédiate sans passer par le système lent est la meilleure solution en termes de survie.
Albert Moukheiber, neuroscientifique, rappelle que ces biais jouent aussi un rôle utile dans la vie sociale. Parfois, grâce au biais de sélection, nous choisissons de ne garder en mémoire que les moments agréables passés avec nos proches, plutôt que les disputes ou les moments difficiles. Le docteur en neurosciences prend avec malice l’exemple d’un coup de fil d’un ami : lorsqu’un ami nous appelle et qu’on lui répond « j’étais justement en train de penser à toi », nous déclenchons un biais de confirmation et oublions alors toutes les fois où nous avons pensé à cet ami sans qu’il appelle. Sans ce biais de confirmation, nous aurions plus de mal à créer des liens sociaux.
Toutefois, il est possible de prendre conscience qu’il existe des biais cognitifs dans le cerveau et de nuancer la réalité que nous percevons par l’effet de ces biais. Cela ne peut se faire que dans un temps long car notre cerveau a tendance à aller au plus simple (écraser la réalité pour la faire rentrer dans des cases, diviser et faire des catégories, polariser). Ce que le cerveau nous fait gagner en rapidité nous le fait perdre en nuance et en richesse.
Nous pouvons apprendre à douter de nos pensées, de nos intuitions et à créer une pause avant d’agir.
…………………………..
Source : Des têtes bien faites : défense de l’esprit critique de Sylvain Delouvée et collectif (éditions Presses Universitaires de France)