C’est un fait intéressant: les législateurs de plusieurs États contrôlés par les républicains font pression pour éliminer la peine de mort. Pourquoi est-ce intéressant? Parce que la plupart des républicains se sont généralement prononcés en faveur de la peine de mort. Ils ont dit que c’était un moyen de dissuasion contre les crimes les plus horribles et une peine appropriée lorsque de tels crimes se produisent.

Mais beaucoup de républicains en sont venus à croire que la peine de mort ne dissuadait pas le crime - un argument pour lequel nous avons déjà apporté des preuves dans Freakonomics. Ils affirment également que les longs recours judiciaires dans les affaires de peine de mort coûtent trop cher aux contribuables. Certains républicains font également état de préoccupations morales concernant la peine de mort. Ainsi, beaucoup d’entre eux ont changé d’avis.

Nous avons tous changé d’avis à un moment donné, à propos de quelque chose. Peut-être étiez-vous un chat et êtes-vous devenu un chien. Peut-être avez-vous décidé de l'endroit où vous habitiez, de la personne que vous aimiez ou de la religion que vous avez suivie ne fonctionnait plus pour vous. Mais changer d'avis est rarement facile. Bien que, si vous êtes comme la plupart des gens, vous aimeriez beaucoup que d’autres personnes changent d’avis, pensent plus comme vous. Parce que, comme vous le voyez, il est impossible pour le monde de progresser, de s’améliorer à moins que certaines personnes ne souhaitent changer d’avis.

Sur l'épisode de cette semaine de Freakonomics Radio: comment changer les mentalités, ou du moins essayer de le faire.

Robert Sapolsky est professeur de neuroscience à l'Université de Stanford. Il se décrit comme semi-neurobiologiste et semi-primatologue; Il étudie les deux neurones dans des boîtes de Pétri et des babouins sauvages en Afrique de l'Est. Sapolsky a beaucoup d'expérience avec le changement d'avis. Il a été élevé en tant que juif orthodoxe avant de décider, à l'âge de 14 ans, qu '«il n'y a pas de Dieu, il n'y a pas de volonté libre, il n'y a pas de but». Il avait l'habitude d'être un snob de musique classique; puis il épouse un fanatique et un metteur en scène de théâtre musical. Aujourd'hui, il sert souvent de pianiste de répétition pour les productions de son épouse.

Sapolsky a remarqué quelque chose sur le changement de mentalité: c’est plus facile à faire quand on est plus jeune. Dans une enquête qu'il a réalisée pour étudier les préférences des gens en matière d'alimentation, de musique, etc., Sapolsky a constaté que les gens devenaient effectivement moins ouverts à la nouveauté à mesure qu'ils vieillissaient. Par exemple, une personne qui n’a pas mangé de sushi à l’âge de 35 ans ne le fera probablement jamais. Il a également constaté que les humains ne sont pas les seuls animaux à présenter ce comportement.

«Vous prenez un rat de laboratoire et vous regardez quand dans sa vie il est prêt à essayer un nouveau type d’aliments - et que c’est exactement la même courbe!», Déclare Sapolsky. «L'équivalent de rats de laboratoire âgés de 10 ans déteste le brocoli autant que les humains âgés de 10 ans. À la fin de l’adolescence, au début de l’âge adulte, ce désir soudain de nouveauté existe… Et puis, lorsque vous serez un rat adulte d’âge moyen, vous ne tenterez jamais rien de nouveau pour le reste de votre vie. "

Il existe de nombreuses raisons pour lesquelles il peut être plus facile de changer d’avis quand vous êtes plus jeune. Cela pourrait être le fait que votre cerveau est tout simplement plus plastique alors - ce que les scientifiques ont supposé pendant longtemps mais commencent maintenant à se remettre en question. Ou peut-être que vos positions sont moins enracinées, il est donc moins coûteux de les changer.

Ou peut-être que les enjeux sont moins importants: le destin du monde ne dépend pas de savoir si vous êtes pro-brocoli ou anti-brocoli. Mais au fur et à mesure que la vie progresse et que les enjeux montent, changer d'avis peut coûter de plus en plus cher.

Plusieurs années avant l'invasion de l'Irak par les États-Unis, le politologue Francis Fukuyama a signé une lettre en faveur de cette initiative. À cette époque, Fukuyama était bien établi en tant que penseur politique éminent. En plus d’écrire un livre historique, il a effectué deux séjours au Département d’État. Ainsi, ses vues sur la guerre en Irak ont ​​été prises au sérieux.

Mais à mesure que l'invasion approchait, Fukuyama commença à avoir des doutes.

«Ma principale préoccupation était de savoir si les États-Unis étaient prêts à rester en Irak et à le convertir en une sorte de pays stable et décent», a déclaré Fukuyama. «Même moi-même, j'étais étonné de voir à quel point la planification avait été mauvaise et les hypothèses erronées: nous allions être accueillis comme des libérateurs et il y aurait une transition rapide, comme en Europe orientale, vers quelque chose qui ressemblait à la démocratie. ”

En février 2004, Fukuyama a assisté à un dîner à l'American Enterprise Institute, un groupe de réflexion conservateur basé à Washington, DC. Le conférencier invité était Dick Cheney. La foule a salué le vice-président de l'époque avec une salve d'applaudissements.

«Et j’ai simplement regardé autour de moi les gens assis à ma table et j’ai dit:« Pourquoi ces gens-là applaudissent-ils? », Dit Fukuyama. «Parce que cette chose est en train de devenir un fiasco énorme. Et c’est le moment que j’ai décidé, vous savez, ces gens sont vraiment cinglés. Je veux dire, ils sont tellement investis dans le fait de considérer cela comme un succès qu’ils ne peuvent pas voir cette réalité qui ne fait que grandir sous leurs yeux. "

Fukuyama a payé le prix fort pour son revirement lors de la guerre en Irak. Il était perçu comme ayant abandonné le mouvement néoconservateur et perdu des amis proches dans le processus. Mais, à ce jour, il s’étonne que si peu de partisans de la guerre ne soient pas disposés à admettre que c’était une erreur.

Un autre facteur peut contribuer à notre réticence à changer d’avis: la confiance excessive: notre propre conviction que nous avons raison, même en l’absence de preuves. À quel point la confiance non méritée flotte-t-elle?

Considérez une étude récente de Julia Shvets, économiste au Christ’s College de Cambridge, qui étudie la prise de décision. Elle et quelques collègues ont interrogé plus de 200 directeurs d'une chaîne de restaurants britannique. Les gestionnaires ont travaillé en moyenne plus de deux ans et leur rémunération était étroitement liée à une prime de performance trimestrielle. Les gestionnaires ont été invités à rappeler leurs performances passées et à prédire leurs performances futures.

Shvets a constaté que seuls environ 35% des gestionnaires étaient en mesure de dire correctement s'ils se trouvaient dans les 20% supérieurs, ou les 20% inférieurs, ou un autre bloc de 20% quelque part au milieu. Quarante-sept pour cent des gestionnaires étaient trop confiants quant à leur réputation.

Et c'étaient des personnes qui avaient des commentaires détaillés sur leur performance chaque trimestre, ce qui est beaucoup plus que la plupart des employés. Comment cela pourrait-il être? C’est là que la mémoire entre en jeu, ou vous appelleriez peut-être cela optimisme - ou illusion.

«Les personnes qui avaient moins bien réussi lors de la compétition précédente avaient tendance à se souvenir de résultats légèrement meilleurs. Les gens semblent exagérer leur propre performance passée quand celle-ci est mauvaise », explique Shvets. «Nous en concluons donc que, lorsque des informations sur leurs performances passées sont fournies, les utilisateurs utilisent la mémoire de manière sélective. Ils se souviennent des bons résultats et ont tendance à oublier les mauvais.

Donc, peut-être que ce n’est pas tant que les gens refusent de changer d’avis - ou de «mettre à jour leurs antécédents», comme le disent les économistes. Peut-être qu'ils ont juste des souvenirs sélectifs auto-améliorant.

Donc, il y a beaucoup de raisons pour lesquelles une personne donnée peut être réticente à changer d'avis sur une chose donnée. Mémoire sélective, excès de confiance ou coût de la perte de parents ou d'amis. Mais disons que vous restez attaché à changer les mentalités - les vôtres ou ceux de quelqu'un d'autre. Comment faites-vous cela? Le secret ne réside peut-être pas dans un cadre théorique grandiose, mais dans de petits objets banals tels que des toilettes, des fermetures à glissière et des stylos à bille.

Steven Sloman, professeur de psychologie à Brown, a mené une expérience en demandant aux gens d'expliquer, non pas la raison, mais bien d'expliquer, au niveau technique, comment quelque chose fonctionne.

Il est fort probable que vous ne puissiez probablement pas très bien expliquer le fonctionnement d’une toilette, d’une fermeture à glissière ou d’un stylo à bille. Mais avant que la question ne vous soit posée, vous auriez pensé pouvoir le faire. Cet écart entre ce que vous savez et ce que vous pensez que vous savez est appelé "l'illusion d'une profondeur explicative". Il a été démontré pour la première fois par les psychologues Leonid Rozenblit et Frank Keil.

«Les gens ne parviennent pas à distinguer ce qu'ils savent de ce que les autres savent», dit Sloman. «Nous dépendons constamment d’autres personnes, et le traitement réel en cours est réparti entre les membres de notre communauté.»

En d'autres termes, quelqu'un sait comment fonctionne une toilette: le plombier. Et vous connaissez le plombier; ou, même si vous ne connaissez pas le plombier, vous savez comment trouver un plombier.

Vous pouvez voir comment l'illusion de profondeur explicative peut être utile dans certains scénarios: vous n'avez pas besoin de tout savoir par vous-même, tant que vous connaissez quelqu'un qui connaît quelqu'un qui sait quelque chose. Mais vous pouvez aussi imaginer des scénarios dans lesquels l’illusion pourrait être problématique, comme dans le domaine politique.

Sloman et son collaborateur Philip Fernbach ont essentiellement répété l'expérience Rozenblit et Keil, mais au lieu de toilettes et de fermetures à glissière, ils ont posé des questions sur le changement climatique et le contrôle des armes à feu. Sans surprise, la plupart des gens n’ont pas été en mesure d’expliquer en détail les politiques relatives au changement climatique. Mais c’est ce qui est intéressant: le niveau de confiance des gens dans leur compréhension des problèmes - ce que les participants devaient signaler au début de l’expérience - a été considérablement réduit après avoir essayé, sans succès, de démontrer leur compréhension.

"Cela a réduit l'extrême confiance en eux qu'ils avaient raison", dit Sloman. "En d'autres termes, demander aux gens d'expliquer a dépolarisé le groupe."

Matthew Jackson, économiste à Stanford, qui étudie les réseaux sociaux et économiques, avait l'habitude de croire que des personnes différentes, prenant le même type d'informations, prendraient les mêmes décisions, quelles que soient leurs expériences et influences passées.

Ce n’est cependant pas ce que suggèrent les recherches de Jackson. Dans une expérience, Jackson avait fait lire à des sujets de recherche le même lot d’abrégés d’articles scientifiques sur le changement climatique. Il a constaté que les lecteurs des mêmes articles pouvaient interpréter les articles de manière très différente, en fonction de leur position initiale.

En fait, l’information, loin d’être une solution, peut en réalité être militarisée.

"Il y avait un groupe d'environ un quart à un tiers des sujets qui sont devenus plus polarisés, qui ont interprété les informations fortement en direction de leurs prieurs, et qui se sont finalement retrouvés avec des positions plus extrêmes après l'expérience qu'auparavant", a déclaré Jackson. .

En d’autres termes, les prieurs d’une personne - qui sont façonnés par des expériences, des influences et des réseaux sociaux antérieurs - jouent un grand rôle dans la formation des croyances et des processus de prise de décision actuels. Steven Sloman, le professeur Brown, pense que le troisième facteur est particulièrement important.

«[N] ous croyons ce que nous faisons parce que les gens autour de nous croient ce qu’ils font», dit Sloman. «C’est ainsi que l’humanité a évolué. Nous dépendons d'autres personnes. "

Donc, si nos croyances sont façonnées par les gens qui nous entourent, un antidote à une pensée inflexible est simplement l’équilibre. Malheureusement, nous sommes nombreux à avoir du mal à créer des réseaux diversifiés et bien équilibrés. Les gens sont enclins à s'entourer de gens comme eux.

«Nous finissons par parler à des gens qui ont des expériences passées et des points de vue similaires sur le monde, et nous avons tendance à sous-estimer cela», a déclaré Matthew Jackson. «Les gens ne réalisent pas à quel point leur monde est isolé. Vous savez, les gens se réveillent après une élection et sont très surpris que quiconque ait pu élire un candidat qui a un point de vue différent de celui qu'ils ont.

Vous pouvez trouver l'épisode complet de Freakonomics Radio, «Comment changer d'avis» sur Freakonomics.com. Vous pouvez également écouter Stitcher, Apple Podcasts ou toute autre plate-forme de podcast.