Table des matières:

Je ne verrai pas jusqu'à ce que je croie : Comment apprendre à changer de point de vue ?
Je ne verrai pas jusqu'à ce que je croie : Comment apprendre à changer de point de vue ?

Vidéo: Je ne verrai pas jusqu'à ce que je croie : Comment apprendre à changer de point de vue ?

Vidéo: Je ne verrai pas jusqu'à ce que je croie : Comment apprendre à changer de point de vue ?
Vidéo: La chasteté 2024, Peut
Anonim

Nous déformons constamment la réalité en notre faveur, nous le remarquons très rarement et encore moins souvent admettons que nous nous sommes trompés. Ces faiblesses de la pensée humaine permettent à la propagande et à la publicité de fonctionner, et la manipulation de l'opinion publique dans les réseaux sociaux est basée sur elles. Nous sommes particulièrement mauvais pour raisonner sur des choses liées à nos croyances et à notre foi. Comment « rattraper » vous-même une erreur ?

« Une fois qu'une croyance a été acceptée, l'esprit humain commence à tout attirer afin de la renforcer et de la confirmer. Même si cette croyance réfute plus d'exemples qu'elle n'en confirme, l'intellect soit les néglige, soit les considère comme négligeables », écrit le philosophe anglais Francis Bacon. Quiconque a participé à des discussions sur Internet sait parfaitement ce qu'il voulait dire.

Les psychologues tentent depuis longtemps d'expliquer pourquoi nous sommes si réticents à changer de point de vue. La conjecture de Bacon, avancée il y a près de quatre cents ans, est maintenant soutenue par des centaines d'études scientifiques. Et mieux nous comprenons nos distorsions mentales, plus nous avons de chances d'apprendre à y résister.

Je ne verrai pas jusqu'à ce que je crois

Les limites de l'irrationalité humaine ne peuvent être que devinées. Tout étudiant en psychologie peut utiliser quelques tests simples pour prouver que vous êtes partial et partial. Et nous ne parlons pas d'idéologies et de préjugés, mais des mécanismes les plus fondamentaux de notre pensée.

En 2018, des scientifiques du centre universitaire de Hambourg-Eppendorf ont montré aux participants à l'expérience plusieurs vidéos. Les participants devaient déterminer dans quelle direction les points blancs se déplaçaient sur l'écran noir. Étant donné que de nombreux points se déplaçaient de manière erratique, ce n'était pas si facile de le faire.

Les scientifiques ont remarqué qu'après avoir pris la première décision, les participants y ont adhéré inconsciemment à l'avenir. « Nos décisions deviennent une incitation à ne prendre en compte que les informations qui sont en accord avec elles », concluent les chercheurs

Il s'agit d'un biais cognitif bien connu appelé biais de confirmation. Nous trouvons des données qui soutiennent notre point de vue et ignorons tout ce qui le contredit. En psychologie, cet effet est documenté de manière colorée dans une variété de matériaux.

En 1979, des étudiants de l'Université du Texas ont été invités à étudier deux articles universitaires sur la peine de mort. L'un d'eux a soutenu que la peine de mort aidait à réduire la criminalité, et le second a réfuté cette affirmation. Avant de commencer l'expérience, on a demandé aux participants ce qu'ils pensaient de la peine de mort, puis on leur a demandé d'évaluer la crédibilité de chaque étude.

Au lieu de prendre en compte les arguments des parties adverses, les participants n'ont fait que renforcer leur opinion initiale. Ceux qui soutenaient la peine de mort sont devenus d'ardents partisans, et ceux qui s'y sont opposés sont devenus des opposants encore plus ardents

Dans une expérience classique de 1975, on a montré aux étudiants de l'Université de Stanford une paire de notes de suicide chacun. L'un d'eux était fictif, et l'autre a été écrit par un vrai suicide. Les élèves devaient faire la différence entre un vrai billet et un faux.

Certains des participants se sont avérés être d'excellents détectives - ils ont réussi à gérer 24 paires sur 25. D'autres ont montré un désespoir total et n'ont correctement identifié que dix notes. En fait, les scientifiques ont trompé les participants: les deux groupes ont accompli la tâche à peu près de la même manière.

Dans la deuxième étape, on a dit aux participants que les résultats étaient faux et on leur a demandé d'évaluer le nombre de notes qu'ils avaient réellement identifiées correctement. C'est là que le plaisir a commencé. Les élèves du groupe « bons résultats » étaient convaincus qu'ils avaient bien fait la tâche - bien mieux que l'élève moyen. Les élèves ayant de « moins bons résultats » continuaient de croire qu'ils avaient échoué lamentablement.

Comme le notent les chercheurs, "une fois formées, les impressions restent remarquablement stables". Nous refusons de changer de point de vue, même lorsqu'il s'avère qu'il n'y a absolument aucun fondement derrière cela.

La réalité est désagréable

Les gens font un très mauvais travail de neutralisation des faits et de pondération des arguments. Même les jugements les plus rationnels, en fait, surgissent sous l'influence de désirs, de besoins et de préférences inconscients. Les chercheurs appellent cela « la pensée motivée ». Nous faisons de notre mieux pour éviter la dissonance cognitive - le conflit entre les opinions établies et les nouvelles informations.

Au milieu des années 1950, le psychologue américain Leon Festinger a étudié une petite secte dont les membres croyaient à la fin imminente du monde. La date de l'apocalypse a été prédite à un jour précis - le 21 décembre 1954. Malheureusement, l'apocalypse n'a jamais eu lieu ce jour-là. Certains ont commencé à douter de la véracité de la prédiction, mais ont rapidement reçu un message de Dieu, qui disait: votre groupe rayonnait tellement de foi et de bonté que vous avez sauvé le monde de la destruction.

Après cet événement, le comportement des membres de la secte a radicalement changé. Si auparavant ils ne cherchaient pas à attirer l'attention des étrangers, ils commençaient maintenant à répandre activement leur foi. Selon Festinger, le prosélytisme est devenu pour eux un moyen de supprimer la dissonance cognitive. C'était une décision inconsciente, mais à sa manière logique: après tout, plus les gens peuvent partager nos croyances, plus cela prouve que nous avons raison.

Lorsque nous voyons des informations qui correspondent à nos croyances, nous ressentons une véritable satisfaction. Lorsque nous voyons des informations contraires à nos croyances, nous les percevons comme une menace. Les mécanismes de défense physiologiques sont activés, la capacité de pensée rationnelle est supprimée

C'est désagréable. Nous sommes même prêts à payer pour ne pas être confrontés à des opinions qui ne correspondent pas à notre système de croyances.

En 2017, des scientifiques de l'Université de Winnipeg ont demandé à 200 Américains ce qu'ils pensaient du mariage homosexuel. Ceux qui ont apprécié cette idée se sont vu proposer l'offre suivante: répondez à 8 arguments contre le mariage homosexuel et obtenez 10 dollars, ou répondez à 8 arguments en faveur du mariage homosexuel, mais obtenez seulement 7 dollars pour cela. Les opposants au mariage homosexuel se sont vu proposer le même accord, mais à des conditions opposées.

Dans les deux groupes, près des deux tiers des participants ont accepté de recevoir moins d'argent pour ne pas faire face à la position opposée. Apparemment, trois dollars ne suffisent toujours pas pour surmonter une profonde réticence à écouter ceux qui ne sont pas d'accord avec nous.

Bien sûr, nous n'agissons pas toujours si têtus. Parfois, nous sommes prêts à changer d'avis rapidement et sans douleur sur une question - mais seulement si nous la traitons avec un degré d'indifférence suffisant

Dans une expérience de 2016, des scientifiques de l'Université de Californie du Sud ont proposé aux participants plusieurs déclarations neutres - par exemple, "Thomas Edison a inventé l'ampoule". Presque tout le monde était d'accord avec cela, se référant aux connaissances scolaires. Ensuite, on leur a présenté des preuves qui contredisaient la première déclaration - par exemple, qu'il y avait d'autres inventeurs d'éclairage électrique avant Edison (ces faits étaient faux). Face à de nouvelles informations, presque tout le monde a changé son opinion initiale.

Dans la deuxième partie de l'expérience, les chercheurs ont proposé aux participants des déclarations politiques: par exemple, « Les États-Unis devraient limiter leurs dépenses militaires. Cette fois, leur réaction a été complètement différente: les participants ont renforcé leurs croyances d'origine plutôt que de les remettre en cause.

« Dans la partie politique de l'étude, nous avons vu beaucoup d'activité dans l'amygdale et le cortex des îlots. Ce sont les parties du cerveau qui sont fortement associées aux émotions, aux sentiments et à l'ego. L'identité est un concept délibérément politique, donc, quand il semble aux gens que leur identité est attaquée ou remise en question, ils s'égarent », résument les chercheurs.

Les opinions qui sont devenues une partie de notre « moi » sont très difficiles à changer ou à réfuter. Tout ce qui les contredit, nous l'ignorons ou le nions. Le déni est un mécanisme de défense psychologique de base dans des situations stressantes et anxieuses qui remettent en question notre identité. C'est un mécanisme assez simple: Freud l'attribuait aux enfants. Mais parfois, il fait des miracles.

En 1974, le sous-lieutenant de l'armée japonaise Hiroo Onoda se rendit aux autorités philippines. Il s'est caché dans la jungle de l'île de Lubang pendant près de 30 ans, refusant de croire que la Seconde Guerre mondiale était terminée et que les Japonais étaient vaincus. Il croyait qu'il menait une guérilla derrière les lignes ennemies - bien qu'en réalité il n'ait combattu qu'avec la police philippine et les paysans locaux.

Hiroo a entendu des messages à la radio sur la capitulation du gouvernement japonais, les Jeux olympiques de Tokyo et un miracle économique, mais il considérait tout cela comme de la propagande ennemie. Il n'a reconnu son erreur que lorsqu'une délégation dirigée par l'ancien commandant est arrivée sur l'île, qui lui a donné il y a 30 ans l'ordre "de ne pas se rendre et de ne pas se suicider". Après l'annulation de la commande, Hiroo est retourné au Japon, où il a été accueilli presque comme un héros national.

Donner aux gens des informations qui contredisent leurs croyances, en particulier celles qui sont chargées d'émotion, est assez inefficace. Les anti-vaccins croient que les vaccins causent l'autisme, pas seulement parce qu'ils ne sont pas éduqués. La croyance qu'ils connaissent la cause de la maladie donne une part considérable de confort psychologique: si les sociétés pharmaceutiques avides sont à blâmer pour tout, alors au moins on sait clairement contre qui se mettre en colère. Les preuves scientifiques n'offrent pas de telles réponses

Cela ne signifie pas, bien sûr, que nous devons justifier des préjugés infondés et dangereux. Mais les méthodes que nous utilisons pour les combattre produisent souvent des résultats opposés.

Si les faits n'aident pas, qu'est-ce qui peut aider ?

Comment persuader sans faits

Dans L'énigme de l'esprit, les psychologues cognitifs Hugo Mercier et Dan Sperber ont tenté de répondre à la question de savoir quelle est la cause de notre irrationalité. À leur avis, la tâche principale que notre esprit a appris à résoudre au cours de l'évolution est la vie dans un groupe social. Nous avions besoin de raison pour ne pas chercher la vérité, mais pour ne pas perdre la face devant nos concitoyens. Nous sommes plus intéressés par l'opinion du groupe auquel nous appartenons que par la connaissance objective.

Si une personne sent que quelque chose menace sa personnalité, elle est rarement capable de prendre en compte le point de vue de quelqu'un d'autre. C'est l'une des raisons pour lesquelles les discussions avec les opposants politiques sont généralement inutiles

"Les gens qui essaient de prouver quelque chose ne peuvent pas apprécier les arguments d'une autre personne, car ils les considèrent comme une attaque contre leur image du monde à l'avance", disent les chercheurs.

Mais même si nous sommes biologiquement programmés pour être des conformistes bornés, cela ne signifie pas que nous sommes condamnés.

« Les gens ne veulent peut-être pas changer, mais nous avons la capacité de changer, et le fait que bon nombre de nos idées délirantes et angles morts sont intégrés à la façon dont notre cerveau fonctionne n'est pas une excuse pour renoncer à essayer de changer. le cerveau nous pousse aussi à manger beaucoup de sucre, mais après tout, la plupart d'entre nous ont appris à manger des légumes avec appétit, pas seulement des gâteaux. Le cerveau est-il conçu pour que nous ayons un éclair de colère lorsque nous sommes attaqués ? Génial, mais la plupart d'entre nous ont appris à compter jusqu'à dix puis à trouver des alternatives à la simple décision de se jeter sur l'autre gars avec le club. »

- du livre de Carol Tevris et Elliot Aronson "Les erreurs qui ont été commises (mais pas par moi)"

Internet nous a donné accès à d'énormes quantités d'informations - mais en même temps nous a permis de filtrer ces informations afin qu'elles confirment notre point de vue. Les médias sociaux ont connecté des gens du monde entier, mais en même temps, ils ont créé des bulles de filtrage qui nous coupent discrètement des opinions que nous n'acceptons pas.

Au lieu de retourner les arguments et de défendre obstinément nos opinions, il vaut mieux essayer de comprendre comment nous sommes arrivés à telle ou telle conclusion. Peut-être devrions-nous tous apprendre à conduire des dialogues selon la méthode socratique. La tâche du dialogue socratique n'est pas de gagner dans un argument, mais de réfléchir sur la fiabilité des méthodes que nous utilisons pour créer notre image de la réalité.

Il est peu probable que les erreurs cognitives trouvées par les psychologues s'appliquent uniquement aux étudiants de Stanford. Nous sommes tous irrationnels, et il y a des raisons à cela. Nous nous efforçons d'éviter la dissonance cognitive, exhibons un biais de confirmation, nions nos propres erreurs, mais sommes très critiques envers les erreurs des autres. À l'ère des « faits alternatifs » et des guerres de l'information, il est très important de s'en souvenir

Peut-être que la vérité peut être découverte dans un dialogue, mais vous devez d'abord entrer dans ce dialogue. La connaissance des mécanismes qui déforment notre pensée doit être appliquée non seulement aux adversaires, mais aussi à nous-mêmes. Si la pensée « aha, tout ici correspond pleinement à mes convictions, donc c'est vrai », vous vient, il vaut mieux ne pas vous réjouir, mais chercher des informations qui feront douter de votre conclusion.

Conseillé: