Conférence de Gérald Bronner - Développer son esprit critique face à la désinformation (3)
Notes de la troisième conférence de Gérald Bronner à la Sorbonne.
Une faille dans notre rationalité est notre propension à contaminer nos croyances par nos désirs. Ou comment nos désirs, nos motivations, peuvent influencer nos croyances. V
Il décrit différents biais qui agissent dans ce sens.
Pour l’illustrer il cite notamment l’effet Barnum.
C’est un biais cognitif qui nous conduit à reconnaître comme très personnelles des descriptions vagues, générales et applicables à tout le monde (comme les horoscopes par exemple).
L’ambiguïté du message joue un rôle important dans ce biais.
Il décrit aussi l’expérience suivante (décrite ici : Deutsch, E. (1982) « Anatomie d’une rumeur avortée », Le Genre humain, 5, 1982, pp.99-114):
Deux personnes répendent une rumeur sur la dangerosité du café dans une entreprise.
Au bout d’un certain temps les employés sont interrogés pour connaître leur opinion à ce sujet.
30% de celles et ceux qui boivent beaucoup de café y croient, contre 90% de ceux qui n’en boivent qu’une tasse ou moins par jour.
Et même quand on présente une contradiction à notre croyance, nous pouvons résister. Il fait référence aux travaux de Festinger sur la dissonnance cognitive et décrit l’expérience racontée dans le livre l’échec d’une prophétie. Une gourou fait croire à ses adeptes que la fin du monde approche. Mais heureusement des extra-terrestres vont les sauver. Le jour J rien ne se passe. Un des adeptes dit (un docteur), “j’ai tout abandonné, il faut que ce soit vrai”. Et à 6h du matin, après une énorme tension parmi les fidèles la gourou annonce que, grâce à leurs prières, les extra-terrestres ont décidé de sauver le monde. Une relecture du réel qui satisfera les adeptes, bien content de pouvoir ainsi confirmer leur croyance. Et tout le monde se mettra à faire du prosélytisme.
Nous tenons à nos représentations et nous les défendons.
Ces biais motivationnels (ou raisonnements motivés) nous poussent à confirmer/protéger un système de représentation (valeurs morales, politique, etc) que l’on a construit par socialisation, par nos lectures, nos discussions.
A ne pas confondre avec le biais de confirmation qui est un biais cognitif, non lié à la socialisation.
Le biais de confirmation montre que notre esprit est plus à l’aise avec des confirmations/affirmations que des infirmations.
On recherche plus des exemples qui confirment.
Pour l’illustrer il présente une expérience de Wason que je vous laisse découvrir sur Wikipédia si cela vous dit.
Il aborde ensuite le biais de disponibilité (Tversky / Kahneman).
On fait une estimation d’une probabilité à partir d’exemples disponibles dans notre mémoire.
Par exemple, il y-a-t-il plus de mots qui commencent par “r” que de mots qui ont un “r” en troisième position ?
La plupart des personnes répondent oui, car des mots commençant par “r” remontent plus facilement à notre mémoire.
Les sources possibles de ce biais :
- la complexité d’un problème (cf exemple ci dessus)
- des exemples non neutres affectivement
Enfin, dernier biais abordé : le biais d’optimisme. On surévalue ce que l’on fait par rapport à ce que font les autres. Exemple : 70% des personnes pensent qu’elles sont plus humbles que les autres.
Il est très difficile de lutter contre ces biais. Ce que l’on peut (essayer de) faire :
- chercher des exemples (et pas que 2 ou 3 sinon on tombe sur le biais de disponibilité)
- s’interroger sur ce que l’on désire être vrai
- distinguer les faits des opinions
- ne pas se laisser enfermer dans une bulle (oligopole) cognitive, maintenir la concurrence intellectuelle
Sur ce dernier point je me souviens avoir lu dans le livre de Julia Galef qu’il est assez compliqué de sortir de sa bulle. Par exemple en lisant la presse d’un bord politique qui n’est pas le notre, il n’est pas impossible que cela renforce au contraire nos opinions. Car souvent les médias d’un bord caricaturent l’autre bord. On se sent attaqué. C’est l’effet boomerang.
A voir aussi : Shortcogs, un site, dont le contenu est rédigé par des universitaires, et qui liste de nombreux biais cognitifs.