Éducation à l’esprit critique : connaître les biais cognitifs pour les déjouer et les inhiber

Éducation à l’esprit critique : connaître les biais cognitifs pour les déjouer et les inhiber

Éducation à l'esprit critique biais cognitifs

L’esprit critique ne peut s’exercer qu’en étant bien conscient des biais cognitifs qui affectent nos jugements et nos décisions et qui peuvent donner de « bonnes raisons » pour des peurs infondées, les peurs faisant le lit des croyances et des résistances aux informations scientifiques. Il est possible d’aiguiser l’esprit critique des enfants et des adolescents en leur présentant les principaux biais cognitifs qui affaiblissent l’esprit critique (les leurs mais aussi ceux des adultes). Comme ces biais cognitifs sont des raccourcis de la pensée auxquels il est difficile d’échapper, il est indispensable de les connaître pour pouvoir les inhiber.

On peut citer quelques biais cognitifs parmi les plus fréquents pour une éducation à l’esprit critique :

  • l’effet d’ancrage et le poids de nos idées a priori : la première information que nous recevons influence notre manière de percevoir les informations suivantes (cela est particulièrement vrai lors de négociations financières : le premier prix proposé a valeur de référence même s’il est décorrélé du réel);
  • le coût lié au fait d’abandonner les croyances : plus de temps, d’énergie, d’argent ont été investis en fonction des croyances qu’on nous présente comme erronées, plus on aura du mal à “lâcher” ces croyances (idem avec la souffrance : les humains ont besoin de donner du sens à leurs souffrances et donc auront du mal à abandonner l’idée qu’ils auraient pu faire sans, comme c’est le cas des personnes qui défendent la fessée comme méthode éducative indispensable et inoffensive);
  • le biais de confirmation : on a tendance à chercher des informations qui vont renforcer nos croyances (et à ignorer – même inconsciemment – ou à relativiser/ rejeter les informations qui ne vont pas dans le sens de nos croyances),
  • l’effet Dunning-Kruger, ou effet de surconfiance : les personnes les moins qualifiées dans un domaine surestiment leur compétence (elles ne sont pas conscientes de tout ce qu’elles ne savent pas) alors que les personnes les plus qualifiées sont plus prudentes (elles sont conscientes de tout ce qu’elles ne savent pas, de ce qu’ils restent à découvrir et des causes pluri-factorielles, les empêchant de tomber dans une pensée facile et uni-factorielle)
  • l’influence de nos émotions, en particulier de la peur, et de nos motivations (plus grande sensibilité aux risques qu’aux bénéfices, préférence du statu quo, poids du conformisme…),
  • la difficulté de notre cerveau à appréhender les statistiques et les chiffres (perception erronée du hasard, surestimation des très faibles probabilités, biais de proportionnalité, biais d’ancrage…),
  • l’attirance pour des explications simples et causales (refus des explications multifactorielles, confusion entre corrélation et causalité…),
  • le biais d’autorité : nous avons tous tendance à surévaluer la valeur de l’opinion d’une personne que l’on considère comme une autorité, c’est-à-dire un expert (qu’il le soit réellement ou qu’il soit simplement présenté comme tel),
  • l’effet Barnum (ou « effet de validation subjective » ou « effet de validation personnelle ») : nous avons tendance à accepter une vague description de la personnalité comme s’appliquant spécifiquement à nous-mêmes (nous avons tendances à compléter les “trous” et à fabriquer du sens, comme c’est le cas dans l’astrologie par exemple)
  • l’effet retour de flamme : quand nous sommes confrontés à des preuves en contradiction avec nos croyances, nous avons tendance à les rejeter et à nous refermer davantage sur nos croyances initiales (ces croyances se retrouvant paradoxalement renforcées par des preuves contradictoires),
  • l’effet de groupe : nous sommes soumis à l’effet de groupe quand nous donnons la priorité à la conformité à l’avis du groupe plutôt qu’aux preuves et informations scientifiques
  • le biais de cadrage : c’est la tendance à être influencé par la manière dont un problème est présenté. (par exemple, la décision d’effectuer une action risquée est influencée par la manière de présenter le taux de succès ou d’échec : même si les deux chiffres fournissent la même information, présenter le taux de succès va faire pencher la décision en faveur de l’action et présenter le taux d’échec va faire pencher la décision en défaveur de l’action)
  • l’effet de halo : la perception que nous avons d’une personne (ou d’un groupe) est influencée par l’opinion que l’on se fait d’une de ses caractéristiques personnelles (par exemple, une personne jugée comme “belle physiquement” est perçue comme intelligente et digne de confiance).

Cette liste des biais cognitifs (non exhaustive) peut déjà être un support utile pour passer des informations à la moulinette afin d’exercer l’esprit critique.

De même, il est utile de savoir ce qui différencie une donnée scientifique d’une opinion et ce qui fait la valeur d’une donnée scientifique par-rapport à une autre. La méthode scientifique, c’est tout d’abord l’expérimentation dans des conditions contrôlées et la reproduction des expériences. En médecine, une sorte de pyramide des niveaux de preuves est désormais admise. La Haute autorité de santé distingue trois niveaux pour établir ses recommandations nationales :

  1. un « faible niveau de preuve » correspond à des séries de cas (succession de témoignages et de descriptions), des études rétrospectives ou des études de cas témoins ;
  2. une « présomption scientifique » s’appuie sur des essais comparatifs randomisés de faible puissance, des études comparatives non randomisées bien menées ou des études de cohorte ;
  3. une « preuve scientifique établie » repose sur des essais comparatifs randomisés de forte puissance, une méta-analyse d’essais comparatifs randomisés ou une analyse de décision basée sur des études bien menées.

Quand les avis et recommandations des agences sanitaires et des académies sont convergents à l’échelle internationale, on peut estimer qu’ils reflètent un consensus scientifique sur lequel s’appuyer.

Jean-Paul Krivine, rédacteur en chef de la revue Science et pseudo-sciences, rappelle qu’aucun humain ne peut espérer maîtriser l’ensemble des connaissances scientifiques actuelles. C’est bien tout l’intérêt de l’éducation à l’esprit critique : nous sommes obligés de faire confiance aux experts. “une société fondée sur le progrès scientifique devient paradoxalement une société de croyance par délégation, et donc de confiance” dit Gérald Bronner (sociologue). La question cruciale est donc de savoir que croire et à qui faire confiance : Aux scientifiques ? Mais alors, auxquels ? Aux journalistes ? Aux politiques ? Aux agences sanitaires ? Aux diverses associations ? Aux réseaux sociaux ? À Internet ? À Wikipédia ?

Krivine insiste donc sur l’importance de la connaissance des biais cognitifs humains et des manières de reconnaître une information scientifique fiable d’une autre moins fiable ou d’une opinion. Il est effectivement possible qu’un expert soit en situation de « conflit d’intérêts » ou lui-même victime de ses propres biais cognitifs, mais, quand les avis sont largement ou complètement convergents, il est raisonnable d’estimer qu’ils sont le reflet du meilleur de la connaissance sur lequel le processus de décision peut légitimement s’appuyer.

…………………………..
Source : Des têtes bien faites : défense de l’esprit critique de Sylvain Delouvée et collectif (éditions Presses Universitaires de France)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *