C’est un article sur les biais cognitifs. Un grand nombre d’œuvres a été réalisé par un sacré paquet de gens, que ce soit la Tronche en Biais, Defakator, Hygiène Mentale, Science Étonnante, etc. C’est un sujet de plus en plus abordé, parfois dans le seul but d’obtenir gain de cause dans une discussion ou un débat.
Comme toutes les connaissances, c’est l’usage qu’on en fait qui définit si on s’en sert correctement ou non, mais ce ne sont pas des armes rhétoriques en soit, ce sont avant tout des éléments du réel que quiconque peut aborder. En premier lieu, savoir qu’ils existent nous permet de les déceler. La même logique est valable pour les sophismes. En suite, il ne suffit pas de savoir qu’ils existent, il est nécessaire d’en apprendre un peu sur eux pour les contrer et mieux les comprendre, mais cela dépend de l’éthique de chacun de s’en servir à bon ou à mauvais escient.
Autant de questions auxquelles il sera possible de répondre après avoir mis en lumière un certain nombre de biais cognitifs.
“En général, une “loi du moindre effort” s’applique à l’effort, qu’il soit cognitif ou physique. Cette loi stipule que s’il y a plusieurs façons de parvenir à un même but, les gens finiront par suivre la moins fatigante. Dans l’économie de l’action, l’effort est un coût, et l’acquisition de compétences est motivée par la balance des profits et des coûts. La paresse est profondément inscrite dans notre nature.”
KAHNEMAN Daniel, Système 1, Système 2, Les deux vitesses de la pensée, Flammarion, coll. Clé des Champs, 2016, 706 pages.
Ces mots tirés du livre de Daniel Kahneman, Système 1, Système 2, les deux vitesses de la pensée, résument assez bien les biais cognitifs et leur utilité pratique. Ils nous permettent d’économiser notre énergie mentale et de gagner du temps dans la prise de décision. D’un point de vue évolutionniste, ils existent en grande partie pour la simple et bonne raison qu’ils ont fait leurs preuves concernant leur utilité dans la survie de l’espèce. Ainsi, il vaut mieux croire voir un serpent et partir en courant, plutôt que croire que c’est un simple tuyau d’arrosage. Il vaut mieux avoir l’air bête qu’être mort afin de transmettre ses gènes sur une génération supplémentaire. De plus, il nous partage ceci :
« La découverte la plus surprenante réalisée par l’équipe de Baumeister montre, selon ses propres termes, que l’idée d’énergie mentale est plus qu’une simple métaphore. Le système nerveux consomme plus de glucose que les autres organes du corps humain, et apparemment, une activité mentale difficile coûte très cher en glucose. Quand vous êtes activement impliqué dans un raisonnement cognitif complexe ou engagé dans une tâche qui nécessite le contrôle de soi, votre niveau de glucose dans le sang chute. C’est un effet comparable à celui d’un coureur qui puise dans le glucose stocké dans ses muscles pendant un sprint. Cette idée laisse entendre, ce qui peut paraître audacieux, que les effets de l’épuisement de l’ego pourraient être contrés par une ingestion de glucose, ce que Baumeister et ses collègues ont confirmé lors de plusieurs expériences. Dans l’une de leurs études, des volontaires ont regardé un court-métrage muet où une femme était interviewée, et il leur a été demandé d’interpréter son langage corporel. Alors qu’ils accomplissaient cette tâche, une série de mots défilait lentement sur l’écran. Il avait été spécifiquement recommandé aux participants d’ignorer ces mots, et s’ils s’apercevaient que leur attention avait été détournée, ils devaient de nouveau se concentrer sur le comportement de la femme. Cet acte de contrôle de soi était connu pour causer un épuisement de l’ego. »
« Puis, avant de participer à une deuxième tâche, tous les sujets ont bu de la limonade. La limonade avait été sucrée au glucose pour la moitié d’entre eux, et avec un édulcorant pour l’autre moitié. Tous se sont ensuite vu attribuer une tâche au cours de laquelle ils devaient surmonter leur réaction intuitive pour obtenir la bonne réponse. Les erreurs intuitives sont normalement beaucoup plus fréquentes chez les gens souffrant d’un épuisement de l’ego, effet qui a été constaté chez ceux qui avaient bu de l’édulcorant. Les buveurs de glucose, eux, n’ont affiché aucun épuisement. En rétablissant le niveau de sucre disponible dans le cerveau, on avait évité une détérioration de la performance. Il faudra du temps, et beaucoup plus de recherches, pour établir si les tâches qui provoquent la baisse de glucose sont également à l’origine de l’excitation momentanée qui se reflète dans la dilatation de la pupille et l’augmentation du rythme cardiaque. »
« Les Proceedings of the National Academy of Sciences ont rapporté un exemple inquiétant de l’effet de l’épuisement de l’ego sur le jugement. Les participants involontaires à cette étude étaient huit juges des détentions et de la liberté en Israël. Ils passent des journées entières à éplucher des demandes de liberté conditionnelle. Les dossiers sont présentés dans le désordre, et les juges consacrent peu de temps à chaque affaire, six minutes en moyenne. (La décision par défaut est le refus ; 35 % seulement des demandes sont approuvées. La durée exacte de chaque décision est enregistrée, ainsi que la durée des trois pauses de la journée – la pause matinale, le déjeuner, et la pause de l’après-midi.) Les auteurs de l’étude ont comparé la proportion de demandes acceptées avec le temps écoulé depuis la plus récente pause. Cette proportion augmente après chaque pause, où 65 % des demandes sont acceptées. Pendant les quelque deux heures qui séparent les juges de leur prochaine pause, le pourcentage d’acceptation baisse systématiquement, pour être proche du zéro juste avant la pause. Comme vous vous en doutez, c’est un résultat embarrassant, et les auteurs ont analysé de nombreuses explications possibles. Mais même présentées sous leur meilleur jour, ces données brossent un tableau désolant : quand ils sont fatigués et qu’ils ont faim, les juges ont tendance à prendre la décision par défaut, plus facile, et à rejeter les demandes. »
Qui peut bien accepter qu’un système judiciaire soit soumis à de telles fluctuations dans la prise de décision, suivant l’humeur et la satiété des juges ? Où se trouve la justice là-dedans ? Le fait est que, aussi intelligent puissent être les magistrats, aussi éduqués soient-ils, sérieux, bienveillants, etc… Nous sommes tous soumis à ces mécanismes automatiques, à ces heuristiques de pensée. Le livre est rempli d’exemples du genre, celui-ci étant selon moi le plus important de par la gravité que la situation implique.
On peut raisonnablement se dire qu’un certain nombre de personnes condamnées l’ont été par simple malchance d’être passées devant le juge le matin avant le déjeuner. Mais attention, cela ne trace pas notre destin de passer à une heure plutôt que l’autre. L’aspect physique de la personne a son importance elle aussi, si elle pense comme vous, les émotions qui nous traversent au moment de prendre une décision, les hormones comme durant une grossesse ou des menstruations, les neurotransmetteurs qui s’agitent dans nos cerveaux, notre génétique, etc. C’est la complexité dans toute sa grandeur qu’il faut détricoter si l’on veut savoir le plus précisément possible pourquoi, et comment, une décision a été prise de telle manière et pas d’une autre.
Julia Galef, dans son livre The Scout Mindset, nous propose cinq questions que l’on peut se poser afin de contrer nos biais et notre raisonnement motivé. Est-ce que je dis aux autres que j’ai réalisé qu’ils avaient raison (et que j’avais donc tort) ? Comment je réagis à la critique personnelle ? Est-ce que je cherche à me prouver avoir eu tort ? Est-ce que je prends des précautions afin d’éviter de me tromper moi-même ? Est-ce qu’il y a de bonnes critiques à mon encontre ?
Dans cet article, je vais me limiter à exposer les biais cognitifs, leurs définitions et des exemples pour imager tout ça. N’hésitez pas à utiliser le ctrl + f afin de naviguer plus aisément jusqu’à ce qui vous intéresse dans la la liste des biais que j’ai recensés ici.
Il y a tout simplement trop d’informations dans le monde, nous n’avons pas d’autre choix que d’en filtrer la quasi-totalité. Notre cerveau utilise quelques trucs simples pour choisir les bouts d’informations qui sont les plus susceptibles de finir par être utiles.
En psychologie, l’heuristique de disponibilité désigne un mode de raisonnement qui se base uniquement ou principalement sur les informations immédiatement disponibles, sans chercher à en acquérir de nouvelle concernant la situation. Par exemple, en situation de stress intense, la panique peut faire prendre des risques inconsidérés sur la base d’une heuristique de disponibilité : une personne dans un immeuble en feu cherchera à descendre un escalier enfumé au lieu de se protéger et d’attendre les secours dans un
appartement calfeutré. La représentation mentale de l’escalier comme une éventuelle voie de sortie est saillante et prend le pas sur d’autres éléments (comme la possibilité de fumées toxiques, etc.) qui devraient amener à reconsidérer cette option.
Le biais de attentionnel est basé sur le fait que nous n’examinons pas tous les facteurs et possibilités lorsque nous prenons une décision ou considérons quelque-chose : notre attention est focalisée sur certains facteurs en particulier. Le biais attentionnel démontre que notre état émotionnel influe sur notre attention : nous avons tendance à porter plus d’attention à quelque-chose lorsque nous sommes émotionnellement stimulés.
Des informations sont jugées plus véridiques lorsqu’elles ont été présentées antérieurement.
Décrit par Robert Zajonc (1968), l’effet de simple exposition est un type de biais cognitif qui se caractérise par une augmentation de la probabilité d’avoir un sentiment positif envers quelqu’un ou quelque chose par la simple exposition répétée à cette personne ou cet objet. En d’autres termes plus nous sommes exposés à un stimulus (personne, produit de consommation, lieu) et plus il est probable que nous l’aimions.
Un effet de contexte est un aspect de la psychologie cognitive qui décrit l’influence des facteurs environnementaux sur la perception d’un stimulus. Les effets contextuels peuvent avoir un impact sur notre vie quotidienne à bien des égards, comme la reconnaissance de mots, les capacités d’apprentissage, la mémoire et la reconnaissance d’objets. Il peut avoir un effet considérable sur les décisions de marketing et de consommation.
L’échec de la récupération est l’échec à se rappeler des informations sans repères mémoriels. Le terme se rapporte à des repères sémantiques, à des repères dépendant de l’état ou à des repères dépendants du contexte.
Récupération sélective de souvenirs qui ont la même tonalité affective que l’humeur du moment.
Tendance à remarquer l’occurrence d’un phénomène particulier une fois que l’on a commencé à le chercher, et donc à croire de façon erronée que le phénomène se produit fréquemment.
Le phénomène Baader-Meinhof survient lorsqu’une personne, après avoir fait connaissance pour la première fois d’un fait, d’un mot, d’un phénomène ou tout autre chose (souvent étrange ou d’ordre à aiguiser la curiosité), rencontre à nouveau, parfois à plusieurs reprises, cette même chose peu de temps après sa découverte. Ce phénomène peut se rapprocher de la paramnésie ou phénomène de “déjà-vu”.
Un décalage empathique « chaud-froid » est un biais cognitif par lequel les gens sous-estiment les influences des pulsions viscérales sur leurs propres attitudes, préférences et comportements. Le point clé de cette idée est que la compréhension humaine est «dépendante de l’état». Par exemple, lorsque l’on est en colère, il est difficile de comprendre ce que c’est d’être calme, et vice versa; Quand on est aveuglément amoureux de quelqu’un, il est difficile de comprendre ce que c’est que de ne pas l’être. Il est important de noter qu’une incapacité à minimiser son écart d’empathie peut entraîner des résultats négatifs dans les milieux médicaux ou dans les milieux de travail.
Le biais d’omission est un biais cognitif qui consiste à considérer que causer un tort par une action est pire que de causer un tort par l’inaction. Ainsi, le biais d’omission pourrait contribuer à expliquer que, dans l’incertitude, certains choisiront de refuser la vaccination pour leurs enfants.
L’oubli de la fréquence de base (aussi connue sous le nom de négligence de la taille de l’échantillon) est un biais cognitif lié aux lois statistiques, qui se manifeste par le fait que les gens oublient souvent de considérer la fréquence de base de l’occurrence d’un événement (sa probabilité a priori, en termes bayésiens) lorsqu’ils cherchent à en évaluer une probabilité. Le plus souvent, cela conduit à surestimer cette probabilité.
Cet effet est basé sur l’idée qu’il est dans la nature humaine de vouloir finir les choses commencées, et que nous ressentons un sentiment inconfortable de dissonance lorsque ce n’est pas le cas. Ne pas finir quelque-chose nous met dans un état de tension qui nous fait porter davantage d’attention à cette chose que l’on souhaite terminer. Par conséquent, nous retenons davantage les tâches incomplètes, comparées à celles que nous avons terminées, ce qui nous pousse à aller jusqu’au bout de celles que nous n’avons pas encore finies. En d’autres termes, nous avons moins de motivation et de facilité à nous rappeler les choses que nous avons terminées, comparées à celles que l’on souhaite finir dans lesquelles nous sommes plus investi, donc qui reviennent plus facilement à notre mémoire.
Par exemple, la psychologue russe Bljuma Zeigarnik a démontré cet effet (nommé d’après son nom de famille) par une expérience dans un restaurant : elle a observé que les serveurs pouvaient se souvenir de commandes compliquées, mais qu’une fois la nourriture servie ou l’addition payée, tous les détails de celles-ci étaient très vite oubliés. Ainsi, les commandes qui n’ont pas encore été servies ou payées reviennent plus facilement à l’esprit des serveurs que celles déjà traitées. Une fois traitée, la commande est « classée » dans l’esprit du serveur comme accomplie, et il l’efface donc juste – inconsciemment – de sa mémoire.
L’effet distinctivité est la tendance à mieux se rappeler des éléments étranges que des éléments communs. La preuve scientifique de son existence est débattue. Certaines recherches suggèrent qu’il existe, d’autres suggèrent qu’il n’existe pas et certaines suggèrent qu’il mène à une moins bonne mémorisation.
Effet selon lequel la mémoire est meilleure pour un matériel humoristique. L’effet d’humour doit être nuancé. Par exemple, si des sujets étudient une liste constituée à la fois d’objets humoristiques et d’objets non humoristiques, la mémoire sera meilleure pour les premiers. Par contre, la mémoire ne sera pas meilleure si les sujets étudient une liste constituée uniquement d’objets humoristiques ou uniquement de phrases non humoristiques. De plus, des résultats expérimentaux indiquent que la mémoire du matériel humoristique se fait aux dépens de la mémoire du matériel non humoristique.
L’effet Von Restorff, nommé d’après la psychiatre Hedwig von Restorff, ou effet d’isolation, prévoit qu’un objet qui se détache d’autres, « tel un pouce levé de la main », est plus susceptible d’être retenu. Il engendre ainsi un biais cognitif retenant ce qui est inhabituel, distinctif.
L’effet de supériorité de l’image se réfère au fait que notre cerveau apprend et retient plus facilement les notions apprises à travers les images comparées à celles apprises par des mots. De fait, lorsque notre mémoire souhaite récupérer l’information codée pour se souvenir de quelque chose, elle a plus de facilités à « retrouver » les images qui sont doublement codées. Ceci explique pourquoi nous avons plus de facilités à la fois pour mémoriser puis pour nous souvenir des images que des mots.
La mémoire est meilleure lorsque les éléments à mémoriser sont traités en référence à soi.
On peut montrer l’effet de la référence à soi en comparant la mémorisation de mots selon deux types de tâche d’orientation. Par exemple, dans un cas on propose au sujet une tâche de décision orthographique (est-ce que le mot contient un « ? ») et dans l’autre, la tâche consiste à demander si le mot permet de décrire le sujet.
Le biais de négativité est le phénomène qui fait que les individus sont davantage marqués par les expériences négatives que par les positives, qu’ils prennent davantage en compte les informations négatives que les positives. En effet, ce sont les informations qui nous apportent un désagrément qui frappent l’attention et qui sont mémorisées le plus facilement. A l’inverse, nous avons tendance à oublier les bons souvenirs ou toutes les fois où les choses se sont bien déroulées et donc à ne pas les prendre en compte dans notre raisonnement. Un autre phénomène lié est que sentiment positif ou de bonheur diminue lorsque les expériences agréables ou positives s’accumulent et qu’on s’y habitue.
En psychologie, l’ancrage désigne la difficulté à se départir d’une première impression. C’est un biais cognitif qui pousse à se fier à l’information reçue en premier dans une prise de décision.
Le biais d’ancrage se manifeste principalement quand nous devons estimer ou fixer une valeur numérique, nous avons alors tendance à utiliser un chiffre disponible comme une « ancre » à laquelle nous appliquons un ajustement insuffisant. La caractéristique la plus frappante du biais d’ancrage est qu’il nous influence même quand l’ancre est sans rapport avec la valeur estimée, voire franchement absurde. À la suite des expériences fondatrices de Kahneman et Tversky dans les années 1970, deux chercheurs allemands, Thomas Mussweiler et Fritz Strack, ont démontré cet effet avec une créativité remarquable. Dans l’une de leurs expériences, ils demandent à la moitié de leurs sujets si Gandhi était âgé, à sa mort, de plus ou moins de 140 ans ; et à l’autre moitié s’il était âgé de plus ou moins de 9 ans. Deux questions auxquelles, bien évidemment, personne n’a de difficulté à répondre. Mais les chiffres ainsi « ancrés », bien que visiblement absurdes, influencent les réponses : le groupe « ancré » sur 140 estime, en moyenne, que Gandhi est mort à 67 ans, et le groupe « ancré » sur 9 qu’il est mort à 50 ans. (Gandhi est en réalité mort à 79 ans.)
Comme beaucoup d’expériences sur les biais cognitifs, ces récits suscitent souvent une première réaction sceptique. Les sujets de ces études ne se raccrochent-ils pas à l’ancre comme à une bouée de sauvetage pour masquer leur ignorance ? Tomberais-je moi-même dans un piège aussi grossier, surtout s’il s’agissait d’une question importante à laquelle je connais quelque chose ? Pour répondre à cette objection, nos espiègles chercheurs allemands ont mené bien d’autres expériences, en plaçant leurs cobayes dans des situations réalistes liées à leur domaine d’expertise. L’une d’elles démontre le biais d’ancrage chez des magistrats, dont les décisions ne sont pas censées être rendues à la légère. Les expérimentateurs soumettent à un panel de juges expérimentés un dossier détaillé concernant un vol à l’étalage et leur demandent quelle sentence ils prononceraient à l’encontre du voleur. Il manque toutefois au dossier les réquisitions du parquet, « ancre » importante pour les juges. Les magistrats vont alors fabriquer eux-mêmes cette « ancre », en lançant deux dés et en reportant le résultat de ce tirage dans la case « réquisitions » du dossier, pour y indiquer le nombre de mois de mise à l’épreuve « requis ». Il ne peut donc y avoir aucune ambiguïté sur le fait que ces réquisitions sont totalement factices. Et pourtant, elles ont une influence visible : les juges qui ont obtenu un 3 aux dés prononcent en moyenne une sanction de cinq mois, tandis que ceux qui ont tiré un 9 condamnent le prévenu à huit mois. Je le redemande, qui veut d’un tel système judiciaire ?
Dans une expériencea, on demande à chaque sujet d’estimer le pourcentage de pays africains dans le monde. Mais avant cela, on fait tourner une roue qui donne aléatoirement un pourcentage entre 0 % et 100 %. En réalité, la roue est truquée et ne peut tomber que sur 10 % ou 65 %. Alors que les sujets savent pertinemment que le nombre donné par la roue n’a absolument aucun rapport avec la question, les sujets préalablement exposés au chiffre 10 % estiment en moyenne à 25 % le pourcentage de pays africains, alors que ceux exposés
au chiffre 65 %, l’estiment en moyenne à 45 % (la bonne réponse étant 28 %). Ce biais est un
exemple de l’influence que le contexte peut avoir sur nos choix et nos actions. En extrapolant à peine, on imagine à quel point nos jugements sont influencés par l’océan d’informations dans lequel nous baignons.
a : A. Tversky et D. Kahneman. “Judgment under Uncertainty : Heuristics and Biases”. In : Science (1974).
Le conservatisme au sens générique est un phénomène psychologique relativement courant, appelé aussi résistance (ou aversion) au changement ou immobilisme, consistant à désirer, et tenter d’obtenir par diverses formes de comportements d’opposition ou de préservation, le maintien du statu quo par aversion à l’incertitude.
Un effet de contraste désigne le phénomène psychologique par lequel la perception d’un stimulus est affectée par le fait qu’un stimulus de nature opposée ait été présenté précédemment ou simultanément, par exemple, quand un objet apparaît plus foncé que la normale lorsqu’il est présenté dans un environnement clair.
Le biais de distinction est un concept appartenant à la Théorie de la décision. Il s’agit de la tendance à voir deux options plus distincts l’une de l’autre lorsqu’on les évalue simultanément que lorsqu’on les évalue séparément.
Lorsque nous jugeons, nous avons tendance à peser les attributs et les facteurs de façon inégale, en accordant plus d’importance à certains aspects qu’à d’autres.
Cela est généralement dû à des facteurs tels que les stéréotypes et les schémas que nous utilisons qui mettent en lumière certains facteurs tout en en minimisant d’autres.
En psychologie, le cadrage est le fait de présenter un “cadre cognitif” comme étant adapté pour réfléchir sur un sujet. Or, la manière de présenter un problème ou un sujet n’est pas sans conséquence sur le raisonnement qui en découle. Le biais de cadrage désigne l’influence importante que peut avoir la formulation d’une question ou d’un problème sur la réponse qui y est apportée. Il montre à quel point l’être humain est influençable et offre un moyen de le mesurer.
L’illusion monétaire est le comportement par lequel un agent économique confond une variation du niveau général des prix avec une variation des prix relatifs. Un agent est, par exemple, victime d’illusion monétaire s’il pense que seul son salaire a augmenté (variation d’un prix relatif) en cas de hausse générale des prix, c’est-à-dire d’inflation. L’illusion monétaire consiste donc à raisonner à partir des valeurs nominales de l’économie et non des valeurs réelles, c’est-à-dire des valeurs nominales corrigées des effets de l’inflation.
En psychophysique, la loi de Weber-Fechner ou de Bouguer-Weber décrit la relation entre une sensation mentale et la grandeur physique d’un stimulus : par exemple, la relation entre la force perçue d’un son et la puissance de l’onde de pression dans l’air correspondante.
Cette loi a d’abord été utilisée par Weber pour calculer à partir de quel seuil nous percevons le changement de poids d’un objet, puis a été ensuit étendue par son élève Fechner à la mesure de nos perceptions et sensations. La Weber’s law (loi de Weber) démontre que le seuil minimal à partir duquel nous percevons un changement dans ce que l’on nous présente (n’importe quel stimulus, comme le poids d’un objet qu’on nous demande de porter) dépend toujours de cette chose que l’on nous présente : c’est un ratio du stimulus d’origine. En d’autres termes, le changement de quelque-chose nous est perceptible selon l’importance/la magnitude qu’avait cette chose originellement. En effet, nos sens sont limités et il y a un « seuil absolu » correspondant à combien, au minimum, on doit changer notre stimulus initial pour que la personne perçoive ce changement de façon notable. La Weber’s law montre que les individus perçoivent en moyenne un changement de 10% ou plus vis-à-vis de la situation initiale.
Le scientifique Weber a originellement démontré cette loi avec la sensation de poids, mais celle-ci s’applique à de nombreuses autres perceptions (luminosité, volume, masse, longueur, etc.). Elle s’applique aussi à des valeurs numériques comme les prix, à une suppression d’une partie d’un texte, et toute autre perception que nous pouvons avoir. Prenons même l’exemple d’une situation dans laquelle votre sœur est allée chez le coiffeur sans vous en informer ni avant ni après : la probabilité que vous le remarquiez dépend de combien elle a changé sa coupe vis-à-vis de l’original. Si elle a juste coupé ses pointes sans toucher à la couleur, la coiffure, etc., il y a des chances que vous ne le perceviez pas. Si maintenant elle a coupé ses cheveux de moitié comparé à la longueur originale (par exemple d’une coupe de cheveux mi-longs à un carré), la proportion de changement est plus importante et vous ne passerez pas à côté.
Le biais de confirmation, également dénommé biais de confirmation d’hypothèse, désigne le biais cognitif qui consiste à privilégier les informations confirmant ses idées préconçues ou ses hypothèses (sans considération pour la véracité de ces informations) et/ou à accorder moins de poids aux hypothèses jouant en défaveur de ses conceptions. En conséquence, les personnes sujettes à ce biais rassemblent des éléments ou se rappellent les informations mémorisées, de manière sélective, et les interprètent d’une manière biaisée. On dit aussi que les personnes « tirent la réalité » à elles.
En matière de politique, ce biais peut être nommé “myside bias” (biais de mon camp) ou “raisonnement politiquement motivé”. Sur internet, nous appellerons cela la “bulle de filtre” ou la “chambre d’écho”.
Notre tendance à vouloir mettre en œuvre et tester exclusivement une seule hypothèse, sans tester d’hypothèses alternatives.
Il s’agit d’un mécanisme nous permettant de conserver l’illusion que nos décisions sont toutes cohérentes. Après une décision, nous allons inconsciemment produire une argumentation raisonnée qui mène à la décision que nous avons prise intuitivement, par contrainte ou pour des raisons que l’on ne veut pas s’avouer. Tel le renard dans la fable de La Fontaine, qui ne pouvant pas accéder aux raisins trop hauts pour lui, se rassure en se disant que ceux-ci sont « trop verts et bons pour des goujats ». De même, après avoir pris l’avion pour les vacances alors qu’on sait que c’est un puissant émetteur de gaz à effet de serre, notre machine à rationaliser va générer tout un tas d’excuses pour préserver notre cohérence interne : « Non mais c’était la dernière fois », « J’avais pris des bagages légers », « C’était pour découvrir une autre culture ». . .
La tendance à attribuer rétroactivement des attributs positifs à une option que l’on a choisie.
La perception sélective décrit comment nous classons et interprétons l’information sensorielle d’une façon qui favorise une catégorie ou une interprétation plutôt qu’une autre. En d’autres termes, la perception sélective est une forme de partialité parce que nous interprétons l’information d’une manière qui est conforme à nos valeurs et convictions.
L’effet expérimentateur a été mis en évidence par Robert Rosenthal dans le domaine de la psychologie. Il consiste en un biais affectant les résultats d’une expérimentation, ceux-ci validant les hypothèses internes, conscientes ou non, de l’expérimentateur.
L’effet Pygmalion (ou effet Rosenthal & Jacobson) est une prophétie autoréalisatrice qui provoque une amélioration des performances d’un sujet, en fonction du degré de croyance en sa réussite venant d’une autorité ou de son environnement. Le simple fait de croire en la réussite de quelqu’un améliore ainsi ses probabilités de succès. En pédagogie, il désigne l’influence d’hypothèses sur l’évolution scolaire d’un élève et sur les aptitudes de celui-ci. Le problème est d’importance, car si les enfants des milieux défavorisés réussissent moins bien à l’école que les enfants des milieux favorisés, la cause pourrait ne pas être uniquement liée aux carences de ces enfants et de leurs milieux.
L’effet Golem est un phénomène psychologique dans lequel des attentes moins élevées placées sur un individu le conduisent à une moins bonne performance. Cet effet est étudié dans les milieux éducatifs et organisationnels. C’est une forme de prophétie autoréalisatrice.
L’effet Hawthorne, fait référence aux sujets qui modifient leur comportement lorsqu’ils sont conscients qu’un observateur est présent. Cela arrive lorsqu’un psychologue observe ses patients ou lorsqu’une personne sait qu’elle est enregistrée.
En finance comportementale, l’effet d’autruche consiste pour les investisseurs à éviter les informations financières négatives. Plus largement, c’est simplement le fait d’éviter les informations qui pourraient avoir une influence sur notre décision et nous pousser à la remettre en question.
La validation subjective consiste à valider une information – une phrase, un mot, une initiale ou un signe – parce que quelqu’un est capable de le trouver signifiant et significatif pour lui-même. La validation subjective est un élément essentiel de toute lecture froide réussie, qu’elle soit faite par un astrologue, un chiromancien, un cartomancien, un médium ou tout autre du genre. Le client dans une telle séance doit coopérer. Heureusement pour le médium, la plupart de leurs clients sont généralement désireux que le médium réussisse et sont prêts à travailler fort pour donner un sens personnel à tout ce que le médium leur dira. Dans une lecture froide réussie, le client sera convaincu que l’exactitude des données fournies n’est pas due à sa coopération mais au pouvoir de l’astrologie, de la chiromancie, du tarot, etc.
Avec l’effet de l’influence continue, on apprend des «faits» sur un événement qui plus tard s’avère faux ou sans fondement, mais l’information discréditée continue d’influencer le raisonnement et la compréhension même après avoir été démentie. Si une fausse déclaration s’inscrit plus ou moins dans les croyances qui définissent la vision du monde d’une personne et qu’elle a une forte composante émotionnelle, elle accepte instinctivement la fausse déclaration plutôt que d’enquêter comme un penseur critique le ferait.
Le réflexe Semmelweis ou effet Semmelweis est une métaphore qui désigne la tendance à rejeter de nouvelles données ou de nouveaux savoirs car ils contredisent les normes, croyances ou paradigmes établis. Par exemple, à une époque, se laver les mains n’était pas la norme avant d’aider une femme à accoucher, et Ignace Philippe Semmelweis (le fameux) a du se confronter à la communauté médicale pour prouver que c’était mieux.
Ce biais conduit les personnes à sous-estimer les délais et les coûts d’un projet, imaginant déjà la fin, sans la moindre embûche possible, avant même d’avoir commencé. C’est un biais que l’on retrouve régulièrement dans le domaine de la construction ou encore dans l’écriture, bref dans tous les projets s’étalant sur une durée importante.
Le biais du point aveugle a été décrit par la psychologue Emily Pronin et ses collègues de l’université de Princeton, comme la tendance à distinguer les biais cognitifs et le biais de motivation davantage chez les autres qu’en soi-même. Le biais de la tache aveugle est un métabiais puisqu’il se rapporte à un mode de raisonnement erroné dans l’examen des biais cognitifs. Même quand nous avons intellectuellement conscience de l’existence de biais en général, nous sous-estimons leur effet sur nous en particulier. C’est ce qu’on appelle le biais “blind spot”. Comme le note Daniel Kahneman, “nous pouvons être aveugle aux évidences, et inconscients de notre propre cécité.”
Le réalisme naïf est une forme de réalisme qui soutient que les objets du réel existent tels qu’ils sont perçus. Aux yeux du réaliste naïf, le monde extérieur à la perception est exactement tel que la perception le représente. Le réalisme n’est pas à proprement parler une position philosophique : c’est une conception spontanée qui ne résiste pas à l’analyse philosophique et scientifique. Le réalisme naïf est contesté à la fois par les idéalismes et les réalismes critiques ou philosophiques. Il s’intègre dans le cadre de la pensée moderne, où l’on considère comme réalistes les postures qui affirment l’existence objective du réel extérieur au champ perceptif.
Le cynisme naïf est un biais cognitif qui se produit lorsque les gens s’attendent à plus de biais égocentrique chez les autres que ce n’est le cas en réalité.
Il y a trop d’informations dans l’Univers. Nous ne pouvons nous occuper que des morceaux qui sont les susceptibles de nous être utiles dans le futur et nous devons constamment faire des compromis et des paris en ce qui concerne ce dont nous allons nous rappeler ou oublier.
Au moment où on a besoin de le produire, on est incapable de retrouver un mot précis, qu’on est pourtant absolument certain de connaître, et qu’on sent tout prêt à nous resurgir à l’esprit.
Décrit et mis en évidence par Betsy Sparrow, Jenny Liu et Daniel M. Wegner en Juillet 2011, l’effet Google est la tendance à oublier l’information facilement accessible si on la cherche sur Internet à partir des moteurs de recherche (tel que Google, Yahoo, etc…), plutôt que de la retenir en mémoire (par rapport à l’information peu accessible).
Mémorisation imparfaite d’un événement précédant immédiatement une performance publique anticipée. L’effet a été signalé pour la première fois en 1973 par l’étudiant américain Malcolm Brenner qui a effectué une expérience dans laquelle un groupe de participants assis autour d’une table circulaire prenait des tours de lecture à voix haute, essayant de se rappeler autant de mots que possible. Après plusieurs tours de table afin que chaque participant ait pu lire plusieurs mots et qu’il y en ait eu beaucoup plus lus par d’autres à se rappeler, les souvenirs des participants étaient testés. Les souvenirs ont eu tendance à être meilleurs pour les mots que les participants avaient lus eux-mêmes (l’effet von Restorff) et moins bons pour les mots précédant immédiatement ceux qu’ils avaient lus (l’effet du prochain sur la liste). On pense que l’effet est dû à la distraction de l’attention et à l’amnésie rétrograde.
Le fait de tester sa mémoire améliore plus la rétention à long terme des informations que le fait de réétudier ces informations ou de ne pas pratiquer de test. Dans certaines circonstances, le testing peut avoir un effet néfaste sur la mémoire (effet du testing négatif).
L’effet de distraction définit l’état d’une personne montrant un comportement inattentif ou oublieux. Il peut avoir trois causes différentes:
L’effet de distraction est une condition mentale dans laquelle le sujet éprouve de faibles niveaux d’attention et une distraction fréquente. L’effet de distraction n’est pas une condition diagnostiquée, mais plutôt un symptôme de l’ennui et la somnolence que les gens peuvent expérimenter dans leur vie quotidienne. Lorsqu’ils souffrent de distraction, les gens ont tendance à montrer des signes de défaillance de la mémoire et de faibles souvenirs des événements récents.
Plus un item est traité en profondeur (caractéristiques sémantiques) plus il a de chances d’être récupéré dans le futur. Tel peut s’énoncer le principe de la profondeur de traitement de Craik et Lockhart (1972). Ces auteurs ont conduit une série d’expériences afin de préciser le concept de niveau de traitement. Ils ne considèrent plus la mémoire comme un système à composantes multiples, mais distinguent plutôt les traitements effectués durant la mise en mémoire de l’information.
Dans un test de rappel immédiat, interférence produite par le dernier stimulus d’une liste que l’on demande au sujet d’ignorer, perturbant l’effet de récence lorsque la modalité de présentation des items est auditive.
L’effet de position série est la tendance d’une personne à mieux se rappeler du premier et du dernier élément d’une série, et moins bien les éléments du milieu. Le terme a été inventé par Hermann Ebbinghaus à travers des études qu’il a effectuées sur lui-même, et fait référence à la découverte que la précision du souvenir varie en fonction de la position d’un élément dans une liste étudiée.
L’effet de récence désigne la facilité à rappeler les derniers éléments d’une liste de stimuli que l’on doit mémoriser. Postman & Phillips en 1965 et Glanzer & Cunitz en 1966 ont présenté des listes de mots de différentes longueurs puis ont demandé à leurs sujets de rappeler les mots dont ils se souvenaient dans l’ordre qu’ils souhaitaient (rappel libre). Quand le rappel a lieu immédiatement, les premiers et les derniers éléments de la liste ont le plus de chance d’être rappelés tandis que peu de sujets se souviennent du milieu de la liste. Quand le rappel a lieu après 15 ou 30 secondes, seuls les éléments du début de la liste ont une forte
probabilité de rappel. Les auteurs interprètent ces expériences comme une preuve de l’existence d’une mémoire à court terme (short-term store) responsable de l’effet de récence. Alors que le début de la liste serait rappelé de la mémoire à long terme (effet de primauté) et donc encore disponible après 30 secondes, la fin de la liste serait stockée en mémoire à court terme et disparaîtrait rapidement après la présentation.
Au milieu des années 1940, le psychologue Solomon Asch a mis en évidence un effet de primauté, c’est-à-dire que l’information reçue en premier déterminerait plus l’impression que l’on a d’autrui que l’information reçue ensuite. Ce principe est également valable pour l’efficacité de la mémoire. Un exemple concret est la mémorisation d’une longue liste de mots, le sujet aura plus de peine à se souvenir des mots du milieu que de ceux du début. Dans le cas d’un contact avec une personne, le sujet sera fortement influencé par la première impression, négative ou positive. Dans le cas d’une réaction négative, il lui sera plus difficile ultérieurement d’avoir un sentiment positif vis-à-vis de cette personne.
Paradigme expérimental consistant à demander aux sujets d’étudier des items puis d’utiliser une partie de ces items comme indices pour rappeler les autres items. La mémoire des items restants est alors détériorée. L’indiçage partiel montre donc que des indices de récupération n’ont pas toujours un effet facilitateur sur la mémoire. Cet effet a été démontré aussi bien pour des mots (liés ou non) que des images.
En psychologie, l’inhibition de la mémoire est la capacité à ne pas se souvenir d’informations non pertinentes. Le concept scientifique de l’inhibition de la mémoire ne doit pas être confondu avec les usages quotidiens du mot «inhibition». Scientifiquement parlant, l’inhibition de la mémoire est un type d’inhibition cognitive, qui est l’arrêt ou la suppression d’un processus mental, complet ou partiel, intentionnel ou pas. L’inhibition de la mémoire est un élément essentiel d’un système mémoriel efficace. Alors que certains souvenirs sont conservés pour toute une vie, la plupart des souvenirs sont oubliés. Pour se rappeler quelque chose, il est essentiel non seulement d’activer l’information pertinente, mais aussi d’inhiber des informations non pertinentes.
Dans un test de rappel immédiat, meilleure performance de la mémoire pour une présentation auditive des items par rapport à une présentation visuelle en particulier pour les éléments de la fin de la liste (effet de récence).
Effet montrant que plus le nombre d’éléments dans une liste augmente, plus la performance de la mémoire diminue (c.-à-d., le pourcentage d’éléments correctement rappelés diminue.) Cet effet apparaît aussi bien en rappel libre, en rappel indicé qu’en reconnaissance.
Le rappel en série est la capacité à se rappeler des éléments ou des événements dans l’ordre dans lequel ils se sont produits. La capacité des humains à stocker des objets en mémoire et à les rappeler est importante pour l’utilisation du langage. L’ordre d’une série nous aide aussi à nous souvenir de l’ordre des événements de nos vies, de nos souvenirs autobiographiques.
La négligence de durée est en psychologie l’observation du fait que les jugements des gens sur le degré de désagrément des expériences douloureuses dépendent très peu de la durée de ces expériences. Plusieurs expériences ont révélé que ces jugements ont tendance à être affectés par deux facteurs: le pic (quand l’expérience était la plus douloureuse) et la rapidité avec laquelle la douleur diminue. Plus elle diminue plus lentement, plus l’expérience est jugée douloureuse.
L’effet de désinformation, parfois appelé effet de fausse information, se produit lorsque la précision de nos souvenirs issus de la mémoire épisodique est altérée par des informations ultérieures. L’effet de désinformation est un exemple typique d’interférence rétroactive, laquelle se produit lorsqu’une information présentée ultérieurement interfère avec les informations précédemment encodées et réduit la capacité à les maintenir intactes. La nouvelle information qu’une personne reçoit force celle-ci à réévaluer les informations précédemment stockées, ce qui risque de fausser le souvenir de l’événement d’origine.
Le nivelage et l’affinement sont deux fonctions automatiques et existent dans la mémoire. L’affinement est généralement la façon dont les gens se souviennent de petits détails dans le récit d’histoires qu’ils ont vécues ou entendues. Le nivelage correspond au cas où les gens éludent des parties d’histoires et tentent d’adoucir ces histoires de sorte que certaines parties en soient exclues. De cette façon, il est plus facile de combler les blancs qui existent dans la mémoire.
La règle pic-fin est une heuristique psychologique dans laquelle les gens jugent une expérience principalement sur la façon dont ils se sentaient à son paroxysme (c’est-à-dire son point le plus intense) et à sa fin, plutôt que sur la somme totale ou la moyenne de chaque moment de l’expérience. L’effet se produit indépendamment du fait que l’expérience soit agréable ou désagréable. Selon l’heuristique, les autres informations hors pic et fin de l’expérience ne sont pas perdues, mais elles ne sont pas utilisées. Cela inclut le plaisir ou le déplaisir global et la durée de l’expérience.
Le biais de l’affaiblissement de l’affect, est un phénomène psychologique dans lequel les informations concernant les émotions négatives tendent à être oubliées plus rapidement que celles associées à des émotions agréables. Bien qu’il y ait eu quelques constatations contradictoires concernant la présence du biais de l’affaiblissement de l’affect, il a été largement vérifié.
Elle arrive lorsque naturellement, sans le remarquer, notre première impulsion nous pousse à attribuer le succès (ou l’échec) de l’individu à ses choix, son tempérament, plutôt qu’aux circonstances.
Des études sur la mémoire ont démontré que nous mémorisons mieux les arguments négatifs que les arguments positifs. Le négatif pèse plus lourd dans la balance.
La notion de préjugé en psychologie se dégage de la signification habituelle attribuée à ce terme. On relève trois définitions du préjugé : le préjugé en tant qu’affect négatif, le préjugé en tant qu’attitude, le préjugé en tant qu’émotion sociale.Le préjugé est un phénomène courant dans la vie quotidienne et peut avoir des conséquences pour les personnes qui les expriment ainsi que pour celles qui subissent leur expression.
Il est important de souligner qu’en psychologie sociale, le préjugé existe uniquement lorsque l’affiliation à un groupe particulier est mise en cause. Les préjugés ne comprennent donc pas les attitudes (négatives) envers une personne pour une raison autre que son affiliation à un groupe.
En psychologie sociale, un stéréotype est :
Selon Jacques-Philippe Leyens (1983), les stéréotypes se définissent comme de « théories implicites de personnalité que partage l’ensemble des membres d’un groupe à propos de l’ensemble des membres d’un autre groupe et du sien ». Le contenu des stéréotypes est composé des croyances concernant les caractéristiques des membres d’un exogroupe, croyances qui sont généralisées à tous les membres de ce groupe. Les stéréotypes qui ne sont pas nécessairement négatifs, ont pour fonction de rendre l’environnement complexe dans lequel on vit plus compréhensible et prévisible (Hamilton & Trolier, 1986). Les autostéréotypes sont les croyances que nous entretenons envers les individus membres de notre propre groupe d’appartenance. Grâce à leurs aspects cognitifs, les stéréotypes s’avèrent très utiles puisqu’ils aident à mettre de l’ordre et de la cohérence dans notre univers social, qui autrement serait passablement chaotique.
Les stéréotypes peuvent contenir des croyances à la fois positives et négatives au sujet de caractéristiques de divers groupes sociaux. Les stéréotypes deviennent problématiques lorsqu’ils sont inexacts et qu’ils résistent au changement même quand des informations les contredisent. De plus, l’usage des stéréotypes mène souvent à des jugements erronés, car trop réducteurs.
Un stéréotype est une croyance selon laquelle les membres d’un groupe possèdent en général certaines caractéristiques. Un stéréotype implicite est un stéréotype qui est suffisamment puissant que pour fonctionner sans être consciemment contrôlé. Exemple : Essayez de répondre à cette question : Est-ce que Gérard Moreau est le nom d’une personne célèbre ? Si vous soupçonnez que oui, et en particulier s’il est plus probable que vous répondiez par l’affirmative que si cette question avait été posée à propos de Géraldine Moreau, vous êtes probablement en train d’exprimer un stéréotype qui associe la catégorie des hommes (plus que la catégorie des femmes) au statut de célébrité. Et cela pourrait être le cas en dépit du fait que des femmes célèbres portent ce nom de famille (par ex., Jeanne Moreau). Ce type de jugements a été utilisé dans l’une des premières études expérimentales sur les stéréotypes implicites : Banaji & Greenwald en 1995 ; Banaji, Hardin, & Rothman en 1994.
L’hypothèse de rationalité pose que l’individu dispose d’une parfaite conscience des croyances qu’il formule. Les psychologues ont cependant montré qu’une partie non négligeable de nos croyances reposaient sur des mécanismes automatiques non conscients. L’individu nourrirait, sans le savoir, des associations d’idées, ce qu’on peut appeler également des stéréotypes.
L’effet d’espacement est défini comme l’effet positif exercé sur l’apprentissage d’un item inclus dans une série d’items semblables, par l’interposition entre les répétitions de cet item d’un ou de plusieurs autres éléments de la série. Trois interprétations du phénomène sont analysées. Si l’on désigne par PI et P2 deux présentations consécutives d’un même item, l’effet de l’espacement entre PI et P2 est attribué, soit à l’amélioration de la consolidation des traces de PI, soit à la variabilité introduite dans le traitement de PI et de P2, soit aux conséquences de l’espacement sur la qualité du traitement alloué à P2. La majorité des données expérimentales s’inscrit en faveur de cette dernière éventualité. Mais les formulations actuelles restent trop imprécises pour répondre de façon satisfaisante à l’énigme posée par l’exceptionnelle robustesse empirique du phénomène.
Les témoins oculaires pourraient être plus sensibles aux suggestions quand leurs ressources cognitives sont épuisées. Pendant son audition, un témoin (ou un suspect) s’engage généralement dans des activités de contrôle de ses émotions, pensées et comportements. Or, une série d’études a révélé que des activités d’autocontrôle intenses et réalisées en un temps limité finissent par épuiser les ressources cognitives des personnes, ce qui les rend moins aptes à se contrôler par la suite. Les chercheurs imaginent donc un lien possible entre ce phénomène d’ego depletion, tel qu’il est nommé dans la littérature anglophone, et la sensibilité aux suggestions. Les résultats indiquent que les sujets ayant dû réguler leur attention obtiennent des scores de suggestibilité plus élevés par rapport aux autres participants, bien que les différences soient statistiquement significatives que pour certaines mesures (notamment pour le score global de suggestibilité). Ainsi, concluent les chercheurs, la suggestibilité augmente quand les ressources cognitives s’épuisent, peut-être parce que le contrôle de la source des souvenirs devient alors plus difficile.
Le faux souvenir se réfère à un souvenir pour un événement entièrement nouveau qui est un événement ou un épisode spécifique de l’événement qui n’a jamais été expérimenté par un individu, dans toute sa vie, mais néanmoins résidant bel et bien dans la mémoire de l’individu. Cette définition est donnée pour la première fois en 1992 dans un symposium de l’American Psychological Society. Le contenu de ce souvenir erroné est aussi varié qu’un souvenir d’événement vécu peut l’être.
Les travaux de Julia Shaw sur le sujet sont édifiants.
Littéralement, souvenir caché. On utilise ce terme pour expliquer que certaines personnes croient parfois faire des expériences bien à elles, alors qu’elles correspondent à des souvenirs d’événements oubliés. Il semble possible que la plupart des prétendues régressions à des vies antérieures provoquées par hypnose sont en fait des confabulations basées sur de la cryptomnésie. Par exemple, les souvenirs sous hypnose de Virginia Tighe à propos de Bridey Murphey de Cork, en Irlande (Bridey Murphey Corkell), s’ils ne constituent pas une fraude pure et simple, sont très probablement liés à des souvenirs d’événements qui se sont déroulés au cours de l’existence de Virginia, mais qu’elle avait oubliés.
La confusion des sources est une caractéristique constatée dans les témoignages de personnes différentes sur le même événement après avoir entendu des gens parler de la situation. Par exemple, un témoin qui entend un officier de police dire qu’il avait un pistolet et qu’ensuite ce témoin dira avoir vu le pistolet. Les souvenirs proviennent à la fois des expériences perceptives, des pensées, des sentiments, des inférences et de l’imagination. La théorie du contrôle des sources postule que les erreurs de mémoire se produisent lorsque l’information perceptive est considérée à tort comme étant la source d’une expérience passée. Cela peut se produire lorsqu’un événement partage les caractéristiques d’une autre source. Lorsqu’une personne possède de nombreuses sources d’informations perceptives sur un événement, son cerveau peut facilement évoquer un souvenir de cet événement, même si elle ne la pas vécu, créant ainsi une attribution mémorielle erronée.
L’erreur d’attribution de la mémoire implique la souvenir correct d’une information avec un souvenir erroné de la source de cette information. Par exemple, une personne qui est témoin d’un meurtre après avoir regardé une émission de télévision peut à tort accuser du meurtre quelqu’un qu’il ou elle a vu à la télévision. Cette erreur a des conséquences graves pour les systèmes juridiques en raison de sa prévalence non reconnue et de la confiance qui est souvent placée en la capacité des personnes à transmettre correctement des informations cruciales pour l’identification des suspects.
Face à une situation qu’il nous faut interpréter, l’histoire la plus immédiatement présente à notre esprit, celle que nous allons alors, sans même nous en rendre compte, chercher à confirmer, est celle que nous suggère notre mémoire, notre expérience de situations apparemment analogues.
Nous sommes contraints par le temps et l’information, et nous ne pouvons pas nous permettre de les laisser nous paralyser. Sans la capacité à agir vite face à l’incertitude, notre espèce aurait certainement disparu il y a bien longtemps. Chaque fois que survient un nouveau bout d’information, nous devons faire de notre mieux pour évaluer notre capacité à agir sur la situation, l’utiliser pour modifier nos décisions, s’en servir pour simuler ce qui pourra advenir dans le futur et, à tout le moins, travailler à modifier notre point de vue sur le monde.
L’effet « moins c’est-mieux » est une forme de renversement des préférences qui se produit quand l’alternative inférieure ou plus petite d’une proposition est préférée lorsqu’elle est évaluée séparément, mais pas lorsqu’elle est évaluée conjointement. Le terme a été proposé pour la première fois par Christopher Hsee. En 1998, il a démontré cet effet dans un certain nombre d’expériences : lorsque deux options étaient offertes séparément, les participants préféraient l’option inférieure. Cependant, si elles étaient jugées ensemble, les participants préféraient l’autre option plus grande ou avec plus d’options.
Le rasoir d’Ockham, est un principe épistémologique formulé par le frère franciscain William d’Ockham (1288-1348). Frustra ajustement par plura quod potest fieri per pauciora. [Il est futile de faire avec plus de choses ce qui peut être fait avec moins] (Summa Totius Logicae). Les philosophes se réfèrent souvent à ceci comme le principe d’économie, alors que les scientifiques ont tendance à appeler cela la parcimonie. Outre la tâche étonnamment difficile de définir « le plus simple » d’un point de vue opérationnel dans le contexte des hypothèses scientifiques, il ne semble pas y avoir de raison logique ou métaphysique de croire que l’univers soit aussi simple qu’il pourrait l’être. Le rasoir d’Ockham est un outil pointu mais pas universel, il doit être manipulé avec circonspection en fonction des circonstances. Pour les sceptiques, cela signifie qu’on ne peut pas éliminer a priori les soucoupes volantes simplement parce qu’elles sont une explication moins vraisemblable que, disons, une météorite. Il n’y a pas de raccourci pour remplacer une enquête sérieuse sur le monde, y compris l’exploration d’hypothèses alternatives et souvent inexplorées.
La probabilité qu’un objet A appartienne à une classe B dépend de sa représentativité ou de sa prototypicalité pour le sujet. De même, bien souvent, une séquence tirée au hasard ne correspond pas à l’idée qu’un sujet se fait du hasard : par exemple, la succession de piles (P) ou faces (F) FFPFPPFP semble plus probable que FFFFPPPP. Similairement, les sujets ne tiennent pas compte de la taille des effectifs : un grand hôpital se voit attribuer plus de chances d’avoir un taux de naissances de filles (ou de garçons) supérieur à 50% qu’un petit (cf. Kahneman & Tversky, 1972). Tversky et Kahneman (1983) donnent d’autres
exemples expérimentaux d’application de l’heuristique de représentativité. Dans une des expériences conduites par les auteurs, les sujets lisaient la description suivante :
‘”Linda a 31 ans. Elle est célibataire, extravertie et très brillante. Elle est diplômée de philosophie. Lorsqu’elle était étudiante, elle s’inquiétait des problèmes de discrimination et de justice sociale et participait aussi à des manifestations antinucléaires”. ’Puis les participants devaient classer les propositions suivantes selon leur probabilité (les issues ci-dessous étaient mêlées à cinq autres items neutres — par exemple : Linda est institutrice — destinés à masquer l’objet de l’étude) :
Les résultats montrent que 85% des sujets jugent la proposition (B+F) plus probable que la proposition (B). Or, comme le notent les auteurs, il s’agit là d’une violation de l’une des lois les plus fondamentales des probabilités, qui établit que A et B ne peut pas être plus probable que A ou que B (cette loi peut être exprimée par la conjonction P[A + B] ≤ P[A], étant donné que [A + B] est un sous-ensemble de A). En effet, l’ensemble des employées de banque qui sont féministes est inclus dans celui des employées de banque. Par conséquent, les sujets ont tendance à surestimer la conjonction de deux événements — on parle dans ce cas d’erreur de conjonction — alors que celle-ci est égale au produit de deux probabilités et que ce produit est forcément inférieur à chacune des probabilités séparées. Dans l’exemple de Linda, Tversky et Kahneman (1983) soutiennent que les sujets sont à nouveau victimes du biais de représentativité. En ce sens, ils appliquent l’heuristique de représentativité, par laquelle ils substituent au jugement de probabilité qui leur est demandé une estimation du degré de similitude avec lequel chacune des propositions (B) et (B+F) est représentative de la description de Linda étudiante.
L’effet Delmore, tel que défini par Paul Whitmore, est notre tendance à fournir des objectifs plus articulés et explicites pour des domaines moins prioritaires de notre vie. Il semble que la nature intimidante des objectifs vraiment importants peut motiver l’individu à détourner cette anxiété en s’occupant d’objectifs moins importants, mais aussi moins menaçants.
La loi de futilité de Parkinson, également connue sous le nom de « l’exemple de l’abri à vélos » (bikeshedding), est une argumentation de 1957 du chercheur britannique Cyril Northcote Parkinson. Selon celle-ci, les organisations donnent une importance disproportionnée à des questions insignifiantes. Parkinson fit cette démonstration en opposant la trivialité d’un projet d’abri à vélos à la complexité d’un projet de réacteur nucléaire : les éléments les plus basiques et inutiles d’un projet sont discutés longuement car compris par tous et donc faciles à traiter, au détriment des éléments plus importants et complexes. Plus tard, Poul-Henning Kamp appliqua cette loi au développement des logiciels informatiques en introduisant « la couleur de l’abri à vélos » comme métaphore d’un détail trivial recevant une attention disproportionnée.
Le terme a été formulé comme métaphore pour éclairer la loi de futilité de Parkinson. Parkinson avait observé qu’un comité chargé d’approuver les plans d’une centrale nucléaire pouvait consacrer la majeure partie de son temps à des questions relativement peu importantes, mais faciles à saisir, telles que les matériaux à utiliser pour l’abri à vélo du personnel, tout en négligeant la conception de la centrale elle-même, ce qui est beaucoup plus important mais aussi beaucoup plus difficile à critiquer de façon constructive.
Le biais de croyance consiste en la formation d’hypothèses et la prise de décisions en fonction de ce que l’on désire et que l’on se plaît à imaginer au lieu de prendre en compte l’évidence, la rationalité et la réalité.
L’effet « rime comme raison » (ou phénomène d’Eaton-Rosen) est un biais cognitif dans le cadre duquel un dicton ou un aphorisme est jugé plus précis ou plus vrai s’il est il est réécrit en rimes. Lors d’expériences, les sujets ont jugé des variantes d’énoncés avec ou sans rimes, et avaient tendance à juger celles qui ont rimaient plus véridiques.
Un article de David Morgan en parle en détail.
Le biais d’information implique une évaluation déformée de l’information. Un exemple de biais d’information est de croire que plus on peut avoir d’informations pour prendre une décision, mieux ce sera, même si ces informations supplémentaires ne sont pas pertinentes pour la décision.
Le biais d’ambiguïté consiste à éviter les options sur lesquelles nous ne disposons pas assez d’information. Ce biais se couple avec le biais de proximité. Il faut y voir la résultante d’un très long processus d’évolution qui fait que pour des questions de survie, il nous fallait nous concentrer sur l’environnement que nous pouvions maîtriser plutôt que sur ce qui paraissait aléatoire. L’effet d’ambiguïté décrit la tendance des individus à éviter toute option aux résultats incertains, où pour laquelle ils manquent d’informations. La prise de décision est affectée par le manque d’information et/ou l’ambiguïté : les individus ont tendance à sélectionner les options pour lesquelles ils connaissent le résultat, car l’être humain préfère généralement les choses « sûres ». En effet, il est plus simple et donc plus probable pour quelqu’un de choisir d’investir du temps ou de l’argent dans une action dont il connaît les conséquences que dans une action incertaine ou ambiguë. Cet effet a d’autres conséquences, comme la réticence à essayer de nouvelles choses, ou encore la capacité limitée à percevoir les bénéfices à long terme d’une décision risquée plutôt que les gains marginaux d’un choix plus sûr.
Il a été démontré par Daniel Ellsberg en 1961, d’après les résultats d’une expérience connue sous le nom du “Ellsberg paradox”. L’expérience consistait à proposer à des individus de jouer à un jeu dans lequel ils devaient piocher une balle à l’aveugle dans une boite et deviner sa couleur pour gagner 20 dollars. Les participants pouvaient choisir de piocher dans l’une des deux boites présentes : l’une contenait 50 balles rouges et 50 balles vertes, l’autre contenait 100 balles rouges et vertes en quantités respectives inconnues. Les résultats de l’expérience ont montré que la majorité des individus a eu tendance à choisir de piocher dans la boite 50/50 plutôt que dans la boite inconnue, sans savoir si la seconde boîte avait peut-être une répartition de couleurs plus avantageuse pour deviner (par exemple 99 balles rouges et 1 balle verte). Ils préféraient s’en tenir à l’option envers laquelle ils avaient une information – même si celle-ci ne les aidait pas à mieux deviner la couleur en réalité – plutôt que de choisir l’option inconnue (que celle-ci soit finalement meilleure ou non).
Le biais de statu quo désigne un biais de comportement qui traduit la résistance au changement et une attitude mentale dans laquelle toute nouveauté est perçue comme engendrant plus de risques que d’avantages. En conséquence, les personnes préfèrent que les choses restent à l’identique ou évoluent le moins possible si l’on ne peut faire autrement. Elles préfèrent minimiser les pertes que prendre des risques pour gagner plus. Plus une décision est complexe et difficile à prendre, plus les individus tendent à accepter le statu quo, car l’angoisse d’avoir à le regretter incite à la prudence. Pour tenter d’éviter ce biais, le philosophe suédois Nick Bostrom pensa au test de l’inversion qui consiste à proposer l’inverse d’une proposition et si celle-ci est considéré comme indésirable, la proposition de départ doit nécessairement être désirable.
Pourquoi les individus se comparent ? C’est en tentant de répondre à cette question que les premières théories sur la comparaison sociale ont été posées. Dès 1950, Festinger soutient que, contrairement à la « réalité physique » dans laquelle un individu peut être assez sûr de lui concernant des faits concrets, concernant ses opinions et ses aptitudes, l’individu ne peut les évaluer de manière fiable. Il a donc besoin d’un point de comparaison, l’autre, pour pouvoir faire une évaluation sensée de ses opinions et aptitudes. Ainsi, plus le poids de la réalité physique est faible dans la validation des opinions, plus l’importance du groupe et la pression à communiquer augmente. Les gens cherchent avant tout des critères objectifs pour évaluer leurs capacités, mais lorsqu’ils n’ont pas de critères objectifs pour le faire, ils se comparent aux autres individus.
L’effet de dominance asymétrique (decoy effect) est le phénomène par lequel les consommateurs auront tendance à avoir un changement spécifique de préférence entre deux options quand leur est également proposée une troisième option asymétriquement dominée. Une option est asymétriquement dominée quand elle est inférieure en tout point à une option, mais comparée à une autre option, elle est inférieure à certains égards et supérieure à d’autres. En d’autres termes, en ce qui concerne les attributs spécifiques fixant la préférabilité, elle est complètement dominée par une option et seulement partiellement dominée par l’autre. Lorsque l’option dominée asymétrique est présente, un pourcentage plus élevé de consommateurs préférera l’option dominante que lorsque l’option asymétriquement dominée est absente. L’option asymétriquement dominée est donc un leurre (decoy) servant à augmenter la préférence pour l’option dominante.
La psychologie inversée est une technique de communication consistant à tenir un discours ou adopter une attitude allant à l’encontre de ce que l’on souhaite en fait suggérer. Cette technique s’appuie sur la réactance, c’est-à-dire le fait qu’un individu qui s’aperçoit que l’on tente de le convaincre, tend par esprit de contradiction à faire ou croire l’opposé de ce qui lui est suggéré.
La réactance est un mécanisme de défense psychologique mis en œuvre par un individu qui tente de maintenir sa liberté d’action lorsqu’il la croit ôtée ou menacée. Effectuée de manière plus ou moins consciente, la réactance peut survenir quand l’individu a l’impression que quelqu’un ou quelque chose (une règle, une offre) limite les choix qui se présentent à lui normalement. La réactance est d’autant plus importante lorsque l’individu se sent poussé à croire ou faire quelque chose.
La théorie de la justification du système, en psychologie sociale et politique, propose que les gens sont motivés, dans certaines conditions, à s’engager dans des processus psychologiques qui appuient et justifient l’ordre social existant même lorsque ce dernier est injuste à certains égards.
En psychologie sociale, on parle d’effet boomerang quand une tentative de persuasion a l’effet inverse de celui attendu et renforce les attitudes de la cible plutôt que de les modifier. Il a par exemple été mis en évidence expérimentalement par Kiesler, Mathog, Pool & Howenstine. Au cours de cette recherche, ils ont contacté des jeunes femmes de New Haven et les ont amenées à signer une pétition en faveur d’une information sur le planning familial dans les lycées avant de les exposer à une contre-propagande (brochure anti-contraception). Les personnes exposées à la contre-propagande se déclarent plus favorables à la mise en place d’une information sur le sujet que celles qui n’ont pas reçu la brochure. Au lieu de produire un changement d’attitude, cette brochure a renforcé les attitudes des récepteurs.
L’aversion à la dépossession ou l’effet de dotation est une hypothèse selon laquelle les gens donnent plus de valeur à un bien ou un service lorsque celui-ci est leur propriété. Autrement dit, plus de valeur est attribuée à une même chose lorsqu’elle nous appartient que lorsqu’elle ne nous appartient pas. En finance comportementale, ce biais cognitif et émotionnel assez courant consiste, pour le propriétaire d’un actif à s’être attaché psychologiquement à sa possession.
En théorie des perspectives, l’effet de pseudo certitude est la tendance à percevoir un résultat comme certain, alors qu’il est en fait incertain. On l’observe dans les décisions à étapes multiples, dans lesquelles l’évaluation des résultats au stade de la décision précédente est écartée lors du choix d’une option dans les étapes ultérieures.
Le biais de l’unité est la tendance des individus à vouloir compléter une unité d’un item ou d’une tâche donnée. Quelle que soit la partie qu’ils ont, les gens veulent la terminer, peu importe la taille. C’est une impression d’achèvement qui est satisfaisante pour l’esprit. Cela a été largement étudié dans le cadre du contrôle des portions et de l’alimentation saine. Les individus mangent plus quand la taille des portions est plus grandes en raison de leur désir de terminer la tâche.
L’effet de disposition est une anomalie découverte dans la finance comportementale. Il se rapporte à la tendance des investisseurs à vendre trop tôt des titres dont la valeur a augmenté, tout en conservant trop longtemps ceux dont la valeur a chuté. Un effet qui se révèle désastreux en termes de rendement de portefeuille.
Nous avons tendance à préférer les options qui éliminent complètement un risque, même si opter pour le « risque zéro » n’est pas rentable et que d’’autres solutions auraient été proportionnellement plus avantageuses.
La mémoire est meilleure pour des éléments que le sujet a générés lui-même que pour des éléments fournis par l’expérimentateur. Dans certaines circonstances, la génération peut n’avoir aucun effet sur la mémoire ou la détériorer (effet de génération négatif).
Une information qui prend plus de temps à lire et à laquelle on doit davantage réfléchir (traitée avec plus de difficulté) est plus facile à retenir.
Il semblerait que nous aimions plus ce que nous fabriquons ! C’est ce que certains appellent « l’effet ikea ». Nous serions également prêts à dépenser plus pour un objet assemblé par nos soins que pour un objet « tout prêt ». Plus nous nous évaluerions comme des personnes appréciant faire les choses par nous-mêmes, plus cher nous serions prêts à payer. Cependant, les données mettent en évidence que les sujets peu adeptes du « Do It Yourself » montrent aussi un « effet Ikea ».
L’aversion à la perte est une caractéristique centrale du comportement humain dans un contexte décisionnel. On observe par exemple que les individus vivent très mal une dégradation de leur pouvoir d’achat ou de leur situation professionnelle. Sur le plan expérimental, l’aversion à la perte implique que les individus sont plus sensibles aux perspectives de pertes qu’à celles associées aux gains. On observe ainsi qu’en moyenne, pour des enjeux relativement modérés, les individus sont deux fois plus sensibles à une perte qu’à un gain de même valeur.
Les individus responsables d’échecs antérieurs dans une prise de décision financière ont tendance a poursuivre leurs investissements dans le sens de leur décision initiale. Plus la responsabilité individuelle ou collective dans la décision initiale est forte, plus cette tendance à l’escalade d’engagement se manifeste (Staw, 1976 ; Staw et Fox, 1977 ; Bazerman, Guiliano et Appelman, 1984). Pour Staw, l’escalade d’engagement peut s’analyser comme une tentative de la part des décideurs de rationaliser les décisions antérieures, par d’autres plus coûteuses, allant dans le sens des premières. Il s’agirait de réduire par cet intermédiaire une dissonance cognitive éveillée par la contradiction existant entre le fait d’avoir pris une décision engageante et le fait d’apprendre que cette décision peut s’avérer désastreuse. C’est l’hypothèse de l’auto-justification.
L’escalade irrationnelle est la tendance des négociateurs à maintenir fermement leur ligne de conduite initiale au-delà de ce que leur dictent leurs intérêts personnels, une analyse rationnelle de la situation ou encore tout simplement la probabilité de réussite. L’escalade s’explique par le fait que les investissements antérieurs justifient à eux seuls la poursuite des revendications, voire l’ajout de nouvelles demandes. Ainsi, la partie souhaite récupérer le temps, l’énergie et les ressources déjà investis dans la négociation et ses choix stratégiques sont guidés par cette motivation.
En économie comportementale et dans l’analyse de la décision, les coûts irrécupérables (sunk costs en anglais) sont les coûts qui ont déjà été payés définitivement ; ils ne sont ni remboursables, ni récupérables par un autre moyen. La distinction avec les autres coûts est importante pour les scénarios où l’on envisage, ou bien où l’on craint de subir, de renoncer à, ou de ne plus être en mesure d’utiliser ce qu’ils ont servi à acquérir. Pour un agent rationnel, ces coûts ne devraient pas peser dans la balance pour les choix qui sont réalisés après qu’ils ont été engagés. En pratique cependant, ils interviennent souvent dans le raisonnement, du fait de l’aversion à la perte. On désigne en anglais ce biais par le terme de sunk cost fallacy. Par exemple, un spectateur dans une salle de cinéma qui trouve le film très mauvais et s’ennuie hésitera souvent à quitter la salle avant la fin du film pour ne pas gâcher l’argent qu’il a dépensé pour le billet. Mais si un ami lui a donné le billet gratuitement car il ne pouvait pas se rendre à la séance, le même spectateur n’aura alors généralement aucune hésitation à partir. Pour un agent parfaitement rationnel, les deux décisions sont pourtant exactement équivalentes, puisque le coût financier de quitter la salle est nul dans les 2 cas, et l’intérêt du temps qu’il va passer à l’extérieur par rapport à celui passé à regarder le film jusqu’à la fin est lui aussi le même.
Notre empathie se dirige naturellement vers ceux qui nous sont proches géographiquement, ethniquement, culturellement. Plus généralement, nous éprouvons plus d’empathie quand nous pouvons nous identifier à une victime ; et pour s’identifier à elle, qu’elle soit identifiable nous aide.
L’argumentum ad novitatem, l’argument de la nouveauté, est un type de raisonnement fallacieux (aussi appelé sophisme) qui consiste à prétendre qu’une idée ou une proposition est correcte ou d’une validité supérieure parce qu’elle est nouvelle et “moderne”. Dans une controverse entre statu quo et nouvelles intentions, un “argumentum ad novitatem” n’est pas valide en lui-même. Ce type d’argument fallacieux peut prendre deux formes :
L’actualisation hyperbolique est un déclencheur psychologique qui permet de mesurer notre rapport sur la façon dont nous évaluons les récompenses. Par exemple lorsqu’un client a le choix entre deux récompenses, il va avoir tendance à préférer la récompense qu’il va recevoir le plus tôt possible (voire immédiatement), même si sa valeur est moindre par rapport à l’autre récompense. En d’autres termes, les consommateurs préfèrent recevoir une récompense instantanée plutôt que d’avoir à attendre une récompense avec une remise supplémentaire.
Un nom assez compliqué donc pour traduire un adage bien connu : « un tiens vaut mieux que deux tu l’auras ». Si au lieu de vous donner 15 € tout de suite, je vous propose de vous donner une somme supérieure dans un mois. Pour quelle somme seriez-vous prêt à accepter ? 15,01 € ? 16 € ? Une étudea montre qu’en moyenne, un individu serait prêt à échanger un gain immédiat de 15 $ contre 20 $ dans un mois ou 50 $ dans un an ou 100 $ dans dix ans.
a : Richard Thaler. “Some empirical evidence on dynamic inconsistency”. In : Economics letters (1981).
Le paradoxe du choix est expliqué par le psychologue américain Barry Schwartz dans son ouvrage The Paradox of Choice – Why more is less (2004). Schwartz montre qu’une abondance de choix, plutôt que d’augmenter notre capacité à prendre des décisions, mène le plus souvent à des sentiments d’anxiété, de solitude et de déprime. En effet, bien que les individus souhaitent souvent avoir une variété d’options lors de leurs choix quotidiens, ils prennent en réalité de meilleures décisions quand ils ont moins d’options parmi lesquelles choisir. Au contraire, restreindre les choix des individus permet de réduire leur anxiété. Une multitude de choix épuise notre cerveau et nous limite au lieu de nous libérer, ce qui peut être néfaste pour notre bien-être : lorsque l’on est confronté à trop d’options « désirables » parmi lesquelles choisir, nous les évaluons alors en termes d’opportunités manquées plutôt qu’en termes de satisfactions potentielles. Ainsi, nos attentes sont plus grandes, notre sentiment d’accomplissement diminue, etc. Cette situation peut aussi mener à une « paralysie de l’action » lorsqu’il y a tellement de choses à choisir que l’on finit par n’en choisir aucune.
C’est par exemple la sensation ressentie lorsqu’on fait des courses de Noël sans idée prédéfinie et que l’on ressort finalement sans cadeau tellement on hésitait sur ce que l’on souhaite offrir. Les sites de rencontre sont également un bon exemple de situation dans laquelle l’abondance de choix peut nous mener à la conclusion qu’aucun des profils proposés n’est assez bien : au lieu de consulter chaque profil en termes de « satisfaction potentielle », nous sommes entrain de penser aux autres profils disponibles que nous pouvons manquer et sommes anxieux de passer à côté de la perle rare.
On appelle un Hobson’s Choice ou « choix d’Hobson » un choix qui ne comporte qu’une option “à prendre ou à laisser” : l’expression tire son nom du directeur d’écuries Thomas Hobson (1544–1631), célèbre à l’époque pour avoir basé sur un choix de la sorte son système de location de chevaux pour les voyageurs. En effet, après s’être rendu compte que tous les voyageurs souhaitaient louer les mêmes chevaux – les meilleurs de son écurie – ce qui épuisait ceux-ci, il décida de changer de système de location. Les voyageurs ne pouvaient louer que le premier cheval disponible dans l’écurie à ce moment-là, sans pouvoir choisir parmi les autres celui qu’ils considéraient comme le meilleur. L’expression est restée et ce type de choix « à prendre ou à laisser » est appelé depuis « choix d’Hobson ».
Par conséquent, un « Hobson’s Choice +1 » est un choix qui propose deux options : on ajoute une option à celle à prendre ou à laisser.
Le principe d’effet d’esthétique-pratique, étudié par Donald Norman en 2002, implique que plus l’apparence et le design d’un produit sont esthétiques, plus ce produit sera perçu comme pratique et plus il sera utilisé, même s’il n’est pas plus pratique en réalité. Le principe s’explique par le fait qu’un client noue une relation plus émotionnelle avec un produit beau et esthétique : cela provoque chez lui un sentiment de fidélité qui le pousse à conserver ce produit même s’il rencontre des problèmes avec celui-ci. Selon Bloch en 1983, « l’apparence visuelle d’un produit est la première chose que prend en compte un potentiel client ». Les utilisateurs du produit seront plus tolérants vis-à-vis des défaillances que celui-ci peut avoir si son design est plaisant, si le produit est beau, car ils pensent que l’option la plus esthétique est la meilleure.
Par exemple, de nombreuses études ont montré que, techniquement, les ordinateurs Apple ne sont pas les plus pratiques : leurs utilisateurs ont plus souvent des problèmes de manipulations et mettent plus de temps à comprendre comment ils fonctionnent. Pourtant, ces utilisateurs ne le remarquent pas ou ne tiennent pas compte de cela, car les ordinateurs Apple sont très esthétiques, et qu’ils préfèrent posséder ces « beaux » ordinateurs. D’autres études ont montré le même résultat à propos des voitures Mini Cooper, dont les utilisateurs peuvent rencontrer certaines anomalies à l’utilisation (le kilométrage est à l’endroit où devrait se trouver la radio par exemple) mais qui sont pardonnées car la voiture a un beau design.
Cette théorie découle des recherches américaines en matière de sécurité routière. Connue également sous le nom de « théorie de l’homéostasie du risque », elle traite de la tendance qu’auraient les individus à maintenir un niveau de perception du risque constant. En ce qui concerne la conduite routière par exemple, le fait d’avoir un système de freinage ABS pousse à conduire plus vite puisque les freins sont plus efficaces !
La Compensation du Risque décrit la manière dont les humains ajustent leurs comportements en fonction du niveau de risque auquel ils font face. Ce qui signifie qu’ils se comporteront de manière plus prudente et sage lorsqu’ils perçoivent un risque et à l’inverse ils se comporteront de manière moins prudente lorsqu’ils se sentent en sécurité.
Si nous dépensons beaucoup d’énergie pour atteindre un objectif, si nous souffrons pour accéder à quelque chose, et si à la fin nous évaluons négativement cet objectif ou reconnaissons que la chose en question n’a que peu de valeur, un état de dissonance est créé. Une façon de réduire cet état de dissonance est alors d’élever notre appréciation de l’objectif atteint (justifiant ainsi l’effort accompli) et de surévaluer la valeur de la chose acquise pour laquelle nous avons souffert.
Le biais d’attribution de traits est la tendance à se considérer soi-même comme relativement changeant en termes de personnalité, de comportement et d’humeur tout en considérant les autres comme beaucoup plus prévisibles dans leurs traits de personnalité dans différentes situations. Plus spécifiquement, c’est une tendance à décrire son propre comportement en termes de facteurs situationnels tout en préférant décrire le comportement d’autrui en lui attribuant des dispositions fixes de personnalité.
L’erreur fondamentale d’attribution, parfois appelée biais d’internalité est la tendance générale des personnes à sous-évaluer les causes externes (situations, événements extérieurs, autrui) au profit des causes personnelles (dispositions personnelles, traits de personnalité, intentions, efforts) qui sont surestimées. Ce concept a été introduit en 1977 par Lee Ross, spécialiste de la psychologie sociale. Dans l’attribution causale, l’erreur fondamentale d’attribution est la tendance à surestimer les causes internes (personnalité, intentions, efforts), ce qui revient à attribuer systématiquement à l’individu la responsabilité de sa conduite.
L’effet acteur-observateur est un terme de psychologie sociale se référant à la tendance à attribuer des causes externes à son propre comportement, et à attribuer des causes internes aux comportements d’autrui.
La notion de biais d’auto-complaisance désigne la tendance des gens à attribuer la causalité de leur réussite à leurs qualités propres (causes internes) et leurs échecs à des facteurs ne dépendant pas d’eux (causes externes), afin de maintenir positive leur image de soi. Cette notion a été créée par Dale T. Miller et Lee Ross en 1975. Par exemple, un individu justifiera l’obtention d’une bonne note à un examen en évoquant le travail qu’il a fourni, alors qu’il expliquera l’obtention d’une mauvaise note par la sévérité du correcteur.
L’effet Lake Wobegon dit tout simplement que nous pensons être bien meilleurs que nous le sommes en réalité. Cette expression vient de Garrison Keillor et de son émission de radio « A Prairie Home Campanion » dans laquelle il était question de son village natal (fictif). Dans ce village qui s’appelait Lake Wobegon, les hommes étaient beaux, les femmes étaient fortes et les enfants étaient plus intelligents que la moyenne. D’où le nom de « Effet Lake Wobegon » en référence à ce village. Lors d’une étude, des scientifiques ont démontré que 94% des professeurs d’Université estiment faire un bien meilleur travail que leurs collègues. C’est également le cas dans de nombreux autres domaines. On a par exemple tendance à se croire plus intelligent que le voisin. Ou plus beau. Ou même d’avoir plus souvent raison que les autres. On se surestime dans de nombreux domaines.
La supériorité illusoire est un biais cognitif par lequel les individus surestiment leurs propres qualités et capacités, par rapport aux autres. Cela transparaît dans une variété de domaines, y compris l’intelligence, la performance à certaines tâches ou tests, et la possession de caractéristiques ou de traits de personnalité désirables. C’est une des nombreuses illusions positives relatives au « moi » et ce phénomène est étudié en psychologie sociale.
Effet indiquant que les sujets sont surconfiants dans leurs réponses à des questions difficiles et sous-confiants dans leurs réponses à des questions faciles.
L’effet Dunning-Kruger, ou effet de surconfiance, est un biais cognitif selon lequel les moins qualifiés dans un domaine surestiment leur compétence. Dunning et Kruger attribuent ce biais à une difficulté métacognitive des personnes non qualifiées qui les empêche de reconnaître objectivement leur incompétence et d’évaluer leurs réelles capacités. Cette étude suggère aussi les effets corollaires : les personnes les plus qualifiées auraient tendance à sous-estimer leur niveau de compétence et penseraient à tort que des tâches faciles pour elles le sont aussi pour les autres.
L’effet de faux consensus est la tendance à surestimer le nombre de personnes qui partagent nos opinions, nos goûts, nos préférences, etc., ou qui agissent comme nous. Les personnes qui subissent cet effet pensent que leurs opinions ou leurs activités sont beaucoup plus communes qu’elles ne le sont en réalité. Ce biais pourrait trouver une explication dans la propension naturelle des individus à s’entourer de personnes avec lesquelles ils partagent un ou plusieurs traits de caractère. Nous côtoyons ainsi quotidiennement des personnes qui affichent des valeurs ou des opinions proches des nôtre. Par un phénomène de généralisation qui n’aurait pas lieu d’être, nous pouvons en arriver à croire qu’une grande partie de la population partage nos valeurs et opinions.
L’illusion de contrôle est une situation dans laquelle une personne est persuadée de disposer d’un pouvoir de contrôle ou, tout au moins d’influence, sur son environnement, en particulier sur des phénomènes aléatoires. Elle pense ainsi être en mesure de favoriser des événements positifs ou d’éviter des événements négatifs. Cette illusion d’être en capacité de contrôle permet d’éviter l’angoisse pouvant être provoquée par des événements non contrôlables.
L’effet Barnum est le nom donné à un type de validation subjective dans laquelle la personne trouve une signification personnelle dans un texte pouvant s’appliquer à n’importe qui. Par exemple : « Vous avez besoin que les autres vous apprécient et vous admirent, et vous êtes enclin à être critique envers vous-mêmes. Bien que vous ayez quelques faiblesses de personnalité, vous êtes généralement capable de compenser ces dernières. Vous n’utilisez pas assez le potentiel considérable que vous avez. De temps en temps, vous doutez des décisions ou des actes que vous avez posés. » Si ces citations semblent sortir d’un recueil d’horoscopes, c’est sans doute parce que c’est le cas. De telles formulations sont un élément très important pour quiconque fait des prévisions : astrologues, chiromanciens, voyants, pygomanciens et ainsi de suite. Si l’individu croit qu’un texte de type Barnum a été écrit spécialement pour lui, il sera plus enclin à y trouver des similitudes avec ses propres traits et donc à croire au pouvoir de celui qui lui aura transmis. Donc si un voyant dit à son client une phrase de type Barnum, la soi-disant véracité de cette phrase lui confirmera que le voyant à vraiment un don. « Effet Barnum » est une expression qu’aurait créée le psychologue Paul Meehl, en référence à l’homme de cirque P. T. Barnum qui avait la réputation d’être un maître de la manipulation psychologique.
L’effet “Forer” ou “Barnum” est connu sous le nom de effet de validation subjective ou effet de validation personnelle Le psychologue B.R. Forer s’est aperçu que la plupart des gens tendaient à accepter une vague description de personnalité comme les décrivant bien, sans se rendre compte que la même description pourrait s’appliquer aussi bien à n’importe qui.
L’hypothèse de l’effet de troisième personne prédit que les gens ont tendance à croire que les messages des médias de masse ont un effet plus important sur les autres que sur eux-mêmes, sur la base de biais personnels. En raison de cette perception, les gens ont tendance à prendre des mesures pour contrer l’influence de ces messages. L’effet de troisième personne se manifeste par la surestimation par un individu de l’effet d’un message médiatique sur un « autre » généralisé, ou par une sous-estimation de l’effet du message sur lui-même.
En psychologie et en sociologie, la désirabilité sociale est le biais qui consiste à vouloir se présenter sous un jour favorable à ses interlocuteurs. Ce processus peut s’exercer de façon implicite, sans qu’on en ait conscience, ou au contraire être le résultat d’une volonté consciente de manipuler son image aux yeux des autres ou de ne pas être stigmatisé socialement, d’être conforme aux attentes sociales.
Le biais d’optimisme est une expression utilisée par Daniel Kahneman pour décrire l’idée que “la plupart d’entre nous voient le monde comme plus inoffensif qu’il n’est réellement, nos propres traits de personnalité plus favorables qu’ils ne sont vraiment, et les objectifs que nous nous fixons plus réalisables que ce qu’ils sont probablement.” De plus, la plupart d’entre nous ont une notion peu réaliste à propos des prédictions sur l’avenir: nous nous croyons meilleurs que ce que nous sommes réellement. Étude après étude, l’auto-illusion est montrée omniprésente: la grande majorité des gens pensent qu’ils sont au-dessus de la moyenne, ont moins de parti pris, sont plus sympathiques, moins impressionnables face aux influences négatives, et plus compétents que la majorité de leurs pairs.
Le biais égocentrique (ou biais d’égocentrisme) consiste, pour une personne, lors d’une action conjointe ou d’un travail en groupe, à surestimer sa contribution et à s’attribuer plus de responsabilités que ne l’aurait fait un observateur extérieur. Dans la perception de notre participation à un travail collectif, nous avons tendance à privilégier des causes personnelles, car nous avons pu mémoriser de nombreuses informations sur nos propres actions et nous ne disposons pas nécessairement d’informations sur le travail des autres. Contrairement au biais d’auto-complaisance, les personnes qui font preuve d’un biais égocentrique peuvent se considérer comme responsables des résultats ou des comportements négatifs du groupe.
Le biais de confiance excessive (en soi) est la tendance à surestimer ses connaissances, ses capacités physiques et intellectuelles, et à avoir trop confiance dans son jugement, notamment son aptitude à prédire un événement incertain. Il se manifeste par :
Le monde est très déconcertant et nous ne sommes capables que d’en percevoir une petite partie alors qu’il nous est nécessaire d’en tirer du sens afin de survivre. Une fois que le flot réduit d’information nous est parvenu, nous relions les points, comblons les blancs avec ce que nous pensons déjà savoir et mettons à jour nos modèles mentaux du monde.
La théorie de l’auto-consistance a été développée par Prescott Lecky dans les années 1920 et met l’accent sur l’importance du soi dans la régulation des pensées et des idées. La base de cette théorie propose que les gens utilisent des mesures d’auto-assistance pour maintenir la constance (ou la cohérence) des idées au sein d’un individu. La cohérence des idées et la représentation du soi sont fondamentales chez l’homme. Les gens ont besoin d’un « motif maître » qui organise et maintient la cohérence dans leurs idées et de leur comportement.
Le biais de retenue est la tendance des gens à surestimer leur capacité à contrôler un comportement impulsif. Une confiance exagérée en son propre self-contrôle peut conduire à une plus grande exposition à la tentation, et à une impulsivité accrue. Par conséquent, le biais de retenue a une incidence sur l’addiction. Par exemple, une personne pourrait expérimenter des drogues, simplement parce qu’elle se croit capable de résister à toute dépendance potentielle.
Projection sur (ou attribution à) autrui de nos propres croyances, opinions et visions de la réalité.
Le biais pro-innovation correspond au postulat implicite selon lequel une innovation doit être diffusée et adoptée par tous les membres d’un système social, qu’elle doit se diffuser le plus rapidement possible et qu’elle ne doit jamais être modifiée, réinventée ou rejetée. Un tel postulat pousse les chercheurs à ignorer les raisons pour lesquelles une innovation n’est pas connue ou adoptée, rejetée ou abandonnée après un certain temps d’utilisation.
Le biais du gain de temps (time-saving bias) décrit la tendance des gens à mésestimer le temps qui pourrait être gagné (ou perdu) en augmentant (ou diminuant) la vitesse. En général, les gens sous-estiment le temps qui pourrait être gagné en accélérant depuis une vitesse relativement basse (par exemple 40 km/h) et surestimer le temps qui pourrait être gagné en accélérant depuis une vitesse relativement élevée (par exemple 90 km/h). Les gens sous-estiment également le temps qui pourrait être perdu en décélérant à partir d’une faible vitesse et surestiment le temps qui pourrait être perdu en décélérant à partir d’une vitesse élevée.
L’erreur de planification, proposée pour la première fois par Daniel Kahneman et Amos Tversky en 1979, est un phénomène par lequel les prédictions sur le temps nécessaire pour accomplir une tâche future montrent un biais d’optimisme et sous-estiment le temps requis.
Les gens ont une mémoire très sélective. Le biais pessimiste en est la manifestation concrète. Ce biais explique qu’il y a une tendance culturelle à surestimer les aspects négatifs et à sous-estimer les aspects positifs du présent, alors que dans le même temps nous avons une tendance contradictoire vis-à-vis du passé. Nous oublions combien ça a pu être difficile et nous surestimons les souvenirs positifs.
Lorsque nous anticipons un événement émotionnel, nous avons tendance à surestimer notre futur ressenti, sa durée et d’autres facteurs qui nous touchent. Cela s’applique aussi bien aux événements négatifs qu’aux événements positifs. Ce faisant, nous avons tendance à oublier que d’autres événements dans notre vie, tout comme notre capacité générale à nous remettre d’un traumatisme, vont atténuer ces sentiments.
Le biais des souvenirs en rose (rosy retrospection) fait référence à la découverte du fait que les individus évaluent plus positivement les événements bien après qu’ils se soient produits, qu’ils ne les ont évalués immédiatement après qu’ils se soient produits, comme une réminiscence de la phrase latine « memoria praeteritorum bonorum » (« souvenir du bon vieux temps »). L’effet semble être plus fort avec des événements modérément agréables, ce qui est généralement expliqué par le fait que les ennuis et déplaisirs mineurs s’effacent de la mémoire bien plus rapidement que les situations positives.
On appelle « télescopage » la compression du temps vers le présent, un peu à la façon dont un télescope comprime la distance vers l’observateur. Avec le télescopage, les événements du passé sont perçus par l’individu interrogé comme étant survenus plus récemment que ce n’est la cas en réalité. Cette erreur s’avère particulièrement problématique lorsque les personnes interrogées doivent évaluer la fréquence d’un événement au cours d’une période précise.
Le déclinisme est la croyance qu’une société ou une institution tend vers le déclin. Plus précisément, c’est la propension, en raison de biais cognitifs, en particulier le « biais des souvenirs en rose » (rosy retrospection), à voir le passé favorablement et futur négativement. Le déclinisme est un phénomène assez répandu. Dans un sondage de 2015, 70% des Britanniques étaient d’accord avec l’affirmation selon laquelle « les choses sont pires qu’elles ne l’étaient autrefois », même si à l’époque les Britanniques étaient en fait « plus riches, en meilleure santé et avec une plus grande longévité que jamais. »
La chance morale décrit les circonstances selon lesquelles un agent moral subit un blâme moral ou bénéficie de louanges pour un acte ou ses conséquences, même s’il est clair que cet agent n’a pas le plein contrôle de cet acte ou de ses conséquences.
Tendance à évaluer des décisions d’après leur résultat – et non sur la base du processus décisionnel d’alors. Un biais cognitif également appelé biais des historiens.
Le biais rétrospectif consiste en une erreur de jugement cognitif désignant la tendance qu’ont les personnes à surestimer rétrospectivement le fait que les événements auraient pu être anticipés moyennant davantage de prévoyance ou de clairvoyance. Selon Nassim Nicholas Taleb, le biais rétrospectif est un mécanisme de déni du hasard dans lequel tout événement doit pouvoir se justifier afin d’être le plus prévisible possible, sa fonction étant dès lors de conforter les individus dans leur sentiment de contrôler l’incertitude. Ce biais est partout, mais se trouve surtout dans les livres d’histoire. Nous avons appris à analyser “les causes de la Révolution française” ou “les conséquences du traité de Versailles”. Mais les historiens qui établissent ces liens logiques implacables entre “causes et conséquences” ont choisi celles-ci avec soin, parmi une quantité infinie de faits historiques. A la lumière des évènements ultérieurs, ils ont isolé les faits qui contribuent à leur narration, et ceux-là seulement. On voit que le biais rétrospectif est indispensable pour donner du sens aux faits : sans son concours, le tumulte de l’histoire serait aussi indéchiffrable que les événements contemporains. Car les mêmes faits qu’on présente, a posteriori, comme les “causes” d’événements quasi inéluctables passent souvent totalement inaperçus aux yeux de leurs contemporains.
Un savant, un connaisseur, un professionnel… a souvent beaucoup de mal à se mettre à la place de celui qui ne connaît pas, comparé à un amateur. C’est ainsi que se définit le biais cognitif connu sous le nom de malédiction du savoir (malédiction de la connaissance, revers de la connaissance…) : il désigne la difficulté, lorsque l’on a acquis une compétence, des connaissances dans un domaine particulier, à s’imaginer sans ces connaissances, se mettre à la place de quelqu’un qui ne les possède pas. Les savants (dans un domaine particulier) estiment mal la façon dont peuvent réagir ou répondre des ignorants (dans ce domaine particulier), ont des difficultés à comprendre les non-experts, à les rallier éventuellement à leur savoir ou à leur cause.
L’illusion de la transparence est la tendance à surestimer le degré de connaissance qu’ont les autres de notre état mental. Une autre manifestation de l’illusion de la transparence (parfois appelée illusion de transparence de l’observateur) est une tendance à surestimer notre compréhension des états mentaux des autres personnes.
L’effet de projecteur est le phénomène par lequel les gens ont tendance à croire qu’ils sont davantage remarqués qu’ils ne le sont réellement. Le raisonnement derrière l’effet projecteur vient de la tendance innée à oublier que, bien que nous soyons au centre de notre propre monde, nous ne sommes pas au centre de celui des autres. Cette tendance ressort particulièrement lorsque nous faisons quelque chose d’atypique. La recherche a empiriquement démontré qu’une surestimation aussi drastique de l’effet que nous produisons sur d’autres est largement répandue.
L’illusion d’agentivité est un ensemble de biais d’attribution consistant en des illusions d’influence, de perspicacité et de bienveillance, proposée par Daniel Gilbert, Timothy D. Wilson, Ryan Brown et Elizabeth Pinel. Au cours d’une série d’expériences, les expérimentateurs ont incité les participants à rationaliser un choix ou une expérience (appelé condition “d’optimisation”), après quoi ils étaient davantage susceptibles de faire certaines attributions à un agent externe. Gilbert et al. a soutenu que “les participants ont confondu leur propre optimisation de la réalité subjective avec une optimisation de la réalité objective par des agents externes.
Selon Pronin et ses collègues en 2001 le biais de l’illusion de la connaissance asymétrique consiste à être convaincu de sa propre perspicacité à deviner les autres tout en étant assuré de son opacité au regard d’autrui. Cette illusion de la connaissance d’autrui n’est pas sans conséquence dans les situations conflictuelles.
L’erreur de la motivation extrinsèque est un biais attributif selon lequel les gens attribuent relativement plus de poids aux «motivations extrinsèques» (comme les récompenses monétaires) qu’aux «motivations intrinsèques» (comme l’apprentissage de nouvelles compétences) lorsqu’ils considèrent les motivations d’autrui plutôt que les leurs.
La comptabilité mentale est un concept développé par Richard Thaler dans les années 1980. La comptabilité mentale tente de décrire le processus par lequel des personnes peuvent classer et évaluer les résultats économiques. La comptabilité mentale est soumise à de nombreuses erreurs logiques et plusieurs préjugés cognitifs. Par exemple, les gens se comportent différemment quand ils utilisent une carte de crédit et de la monnaie fiduciaire. S’ils utilisent la carte de crédit pour payer un pari, ils auront tendance à miser une plus grande somme que s’ils utilisent de l’argent physique. Cela montre la façon donc les gens utilisent la comptabilité mentale pour traiter de l’argent fiduciaire ou de la monnaie électronique, comme si elles n’étaient pas de la même valeur, ce qui démontre les failles humaines du calcul de comptabilité mentale quand l’argent n’apparaît pas sous forme physique.
Le biais de normalité désigne un état mental qui apparaît lorsque les gens font face à une catastrophe. Celui-ci implique une sous-estimation à la fois de la possibilité d’une catastrophe et de ses effets possibles, car il entraîne l’apparition d’un « biais » incitant à croire que les choses fonctionneront toujours comme elles fonctionnent normalement.
« Le nombre magique sept, plus ou moins deux : quelques limites à nos capacités de traitement de l’information » (Miller, 1956). En résumé, il soutient que le nombre d’objets pouvant tenir dans la mémoire de travail d’un humain moyen est de 7 plus ou moins 2. Des recherches récentes démontrent que la loi du nombre magique sept est fondée sur une interprétation erronée de l’article de Miller. Le nombre correct de nouveaux éléments pouvant tenir dans la mémoire courante est probablement de trois ou quatre.
La loi de Murphy d’Edward A. Murphy Jr, ingénieur aérospatial américain qui en énonça le premier le principe, est un adage qui s’énonce de la manière suivante : « Tout ce qui est susceptible de mal tourner tournera nécessairement mal. » On peut interpréter cette loi de deux manières : l’une, humoristique, est de prendre cette loi à la lettre, et de l’ériger en principe de pessimisme. Vue sous cet angle, la loi de Murphy est le constat, élevé au rang de principe fondamental de l’univers, que « le pire est toujours certain. » L’autre vision consiste à voir la loi de Murphy comme une règle de conception : on ne considère pas la loi de Murphy comme vraie, mais on conçoit tout système comme si la loi était vraie. En particulier, un équipement doit être à l’épreuve non seulement des accidents les plus improbables, mais aussi des manœuvres les plus stupides de la part de l’utilisateur. Elle justifie donc les principes de la conception sécuritaire préconisant de planifier et d’éliminer d’emblée les possibilités de mauvaise utilisation, par exemple à l’aide de détrompeurs.
L’effet de la sous-additivité est la tendance à juger la probabilité d’un ensemble inférieure à la probabilité de la somme des parties. Par exemple, dans une expérience les sujets ont jugé que la probabilité de décès par cancer aux États-Unis était de 18%, la probabilité d’une crise cardiaque de 22% et la probabilité de décès d’«autres causes naturelles» de 33%. D’autres participants ont jugé que la probabilité de décès d’une cause naturelle était de 58%. Les causes naturelles se composent précisément de cancers, d’attaques cardiaques et d’ »autres causes naturelles », mais la somme de ces trois probabilités est de 73%, et non de 58%.
Nous tenons uniquement compte des histoires de personnes ayant connu la réussite – plutôt par hasard. Nous espérons pouvoir connaître la même réussite à condition que nous copiions leur comportement et leurs décisions. Mais nous ne voyons pas que des milliers, voire des centaines de milliers, d’autres personnes ayant développé des visions similaires et ayant pris les mêmes risques ont fait le mauvais pari. En effet, ces personnes ne sont pas consultées ou se trouvent au cimetière.
“100% des gagnants ont tenté leur chance !”. Nous oublions bien vite que 100% des perdants aussi.
Le biais de somme nulle est « un système de croyance général sur la nature antagoniste des relations sociales, partagé par les gens dans une société ou une culture, et basé sur l’hypothèse implicite d’une quantité finie de biens dans le monde, impliquant que lorsqu’une personne gagne, elle ferait perdre les autres et vice versa […] . Une conviction assez permanente et générale qui voudrait que les relations sociales soient similaires à un jeu à somme nulle. Les personnes qui partagent cette conviction croient que la réussite, en particulier la réussite économique, n’est possible qu’au prix de l’échec d’autres personnes. » Rozycka-Tran et al., 2015.
L’effet de coupures est un biais cognitif relatif à la monnaie, qui implique que les gens sont moins susceptibles de dépenser de gros billets que leur équivalent en petites coupures.
Un appel à la probabilité présume que, parce que quelque chose se produira probablement, cela se produira certainement. L’appel à la possibilité (c’est possible, donc c’est certain) et l’appel à l’improbabilité (c’est improbable, donc c’est impossible) en sont des variantes. Il s’agit d’un sophisme informel.
L’effet de halo, effet de notoriété ou encore effet de contamination, est un biais cognitif qui affecte la perception des gens ou de marques. C’est une interprétation et une perception sélective d’informations allant dans le sens d’une première impression (“il ne voit que ce qu’il veut bien voir”). Il a été mis en évidence de manière empirique par Edward Thorndike en 1920 et démontré par Solomon Asch en 1946. Une caractéristique jugée positive à propos d’une personne ou d’une collectivité a tendance à rendre plus positives les autres caractéristiques de cette personne, même sans les connaître (et inversement pour une caractéristique négative). Cet effet pourrait par exemple avoir un rôle dans des phénomènes comme le racisme. Ainsi Clifford (1975) a pu montrer que des personnes étaient jugées plus intelligentes que d’autres uniquement sur la base de leur attrait physique.
Par exemple, pensant que Steve Jobs est un génie, on en vient à croire que tout ce qu’il fait est forcément génial.
Nous sous-estimons le point auquel l’histoire émanant d’une source crédible emporte plus facilement notre adhésion.
Encore appelé biais pro-endogroupe, ce biais caractérise le fait pour les membres d’un groupe d’évaluer plus positivement et de favoriser les membres de leur groupe d’appartenance que des membres d’autres groupes. Le simple fait de se retrouver dans un groupe constitué peut produire ce biais mais il tend à s’accentuer dès lors que les membres d’un groupe sont proches les uns des autres, que le groupe apparaît stigmatisé par d’autres groupes, qu’un objectif difficile est assigné au groupe ou dès lors qu’une forte cohésion du groupe est nécessaire pour atteindre un objectif quelconque.
Le Syndrome « Pas inventé(e) ici » (« Not invented here » ou NIH) est une attitude adoptée par les sociétés, les entreprises ou les institutions consistant à éviter d’utiliser ou d’acheter des produits, des recherches, des standards ou des connaissances déjà existants en raison de leurs origines étrangères et de leurs coûts, tels que les droits d’auteurs. Les raisons de ne pas vouloir utiliser le travail d’autrui sont variées, mais peuvent inclure le désir de soutenir une économie locale au lieu de payer des droits à un détenteur de licence étranger, la peur de la contrefaçon, le manque de compréhension du travail étranger, une réticence à reconnaître ou à valoriser le travail d’autrui, la jalousie ou le fait d’être partie prenante dans une compétition à plus grande échelle. En tant que phénomène social, cette philosophie peut se manifester comme une réticence à adopter une idée ou un produit sous prétexte qu’ils proviennent d’une autre culture. C’est une forme de tribalisme.
L’effet de race consiste en ce que les visages des autres groupes ethniques sont plus difficiles à distinguer entre eux ou à reconnaître que les visages du groupe ethnique d’appartenance. La très grande majorité des études a montré que la reconnaissance de visages du groupe ethnique d’appartenance est meilleure que celle de visages d’autres groupes ethniques. Par ailleurs, les visages du groupe d’appartenance sont jugés plus distinctifs que les visages des autres groupes ethniques. L’utilisation d’une tâche de classification (visage-non visage) permet aussi de faire émerger un effet de race : les participants catégorisent moins rapidement les visages des autres groupes ethniques que ceux de leur propre groupe ethnique.
L’effet pom-pom girl, également connu sous le nom d’effet d’attractivité du groupe, est un biais cognitif qui fait croire que les individus sont plus séduisants lorsqu’ils sont en groupe. Le terme a été mentionné en 2008 lors de l’épisode « Not a Father’s Day » de la série TV « How I met your mother », et a été repris par une recherche clinique de Drew Walker et Edward Vul en 2013 et van Osch et ses collègues en 2015.
L’effet du chemin familier (well-traveled road effect) est un biais cognitif selon lequel les voyageurs estiment différemment le temps nécessaire pour parcourir une distance en fonction de leur familiarité avec l’itinéraire. Les itinéraires fréquemment empruntés sont estimés moins chronophages que les itinéraires inconnus.
Le biais d’homogénéité de l’exogroupe est un phénomène qui consiste à réduire au minimum les différences entre les individus à l’intérieur de l’outgroup. Cette homogénéisation n’existe que pour l’exogroupe. À l’intérieur de son propre groupe, l’individu est tout à fait capable de différencier les membres. Par exemple, un Blanc pourrait se dire que les Chinois sont tous pareils car il ne parvient pas à les distinguer physiquement. Or, les Chinois ne sont pas tous les mêmes. Et tous les Chinois et tous les Blancs sont capables de se reconnaître entre eux. Cela est probablement lié à la fréquence des contacts. Jones, Wood et Quattrone ont montré en 1981 que plus un Blanc passe du temps avec des Chinois, plus il découvre les caractéristiques permettant de les distinguer les uns des autres.
La dévaluation réactive est un biais cognitif qui se produit lorsqu’une proposition est dévaluée si elle provient d’un antagoniste. Ce biais a été suggéré par Lee Ross et Constance Stillinger en 1988. La dévaluation réactive pourrait être causée par une aversion à la perte, une polarisation d’attitude, ou un réalisme naïf.
L’effet de positivité fait référence à la tendance, lorsque l’on évalue les causes des comportements d’une personne appréciée ou préférée, à attribuer aux dispositions inhérentes à la personne ses comportements positifs et à des causes situationnelles ses comportements négatifs.
Les groupes ont tendance, sous plusieurs aspects, à se comporter comme les individus, prenant des décisions de façon similaire. Cependant, les règles pour les décisions de groupe ne sont pas forcément les mêmes que pour les individus au sein de ce groupe. L’erreur d’attribution du groupe se produit quand on présume que les personnes du groupe sont d’accord avec les décisions du groupe. Lorsque les gens prennent des décisions en groupes, ils suivent souvent les règles du groupe et sont dès lors influencés par la dynamique sociale au sein du groupe, minimisant leurs véritables préférences personnelles. L’attribution tend souvent à se faire au niveau du groupe, que ce soit l’endogroupe ou l’exogroupe, en supposant que ceux d’un groupe identifié pensent de la même manière. Cela nous aide à parler d’«eux» en tant que concept cohérent, mais en présumant à tort que les personnes du groupe sont plus semblables qu’elles ne le sont réellement.
L’erreur ultime d’attribution correspond à la tendance à favoriser systématiquement son groupe d’appartenance (endogroupe) lors de l’attribution causale, par rapport à un autre groupe (exogroupe). L’erreur ultime d’attribution, parfois appelée biais pro-endogroupe, ou biais d’ethnocentrisme, est similaire au biais d’auto-complaisance, mais appliqué au groupe auquel on appartient ou que l’on estime :
Quant aux autres groupes : leurs succès ou leurs actes valorisés sont attribués à des causes externes.
Le mécanisme de catégorisation sociale consiste à classer et donc à regrouper au sein de catégories, des individus ou des groupes en accentuant les ressemblances intra-catégorielles (biais d’assimilation) et les différences inter-catégorielles (biais de contraste). Ce mécanisme permet de simplifier la réalité sociale, de la structurer et donc de mieux la comprendre. Ainsi, selon Tajfel la catégorisation sociale se définit comme « un système d’orientation qui crée et définit la place particulière d’un individu dans la société ». Les stéréotypes sont à la base de la catégorisation car bien souvent les traits censés être caractéristiques d’une catégorie sont issus des stéréotypes qui sont véhiculés, à propos de cette catégorie.
On appelle essentialisme psychologique cet ensemble de croyances intuitives qui nous conduisent à considérer que certaines catégories naturelles (telles que les espèces) ont une essence propre et seraient réelles (alors que ce sont des constructions intellectuelles humaines) et qu’elles ont une force interne (une essence) qui explique pourquoi les éléments qui les composent (les individus) sont ce qu’ils sont et pourquoi ils partagent les mêmes propriétés. Quand on a recours à ce mode de raisonnement, on ne sait pas ce qu’est cette essence mais on s’en sert pour placer ou situer les êtres.
La fixité fonctionnelle résulte du fait que les idées préconçues, que nous avons de l’usage ou de la fonction des choses, nous empêchent souvent d’utiliser ces dernières à d’autres fins. C’est, par exemple, le cas de la personne qui veut resserrer une vis mais qui, n’ayant pas de tournevis sous la main, ne pense pas à utiliser la pointe du couteau qui se trouve sur la table.
La réalisation d’un acte individuel moralement valorisable peut donner lieu à la légitimation (généralement inconsciente) d’un acte moralement moins valorisable par la suite. Autrement dit, et tel que présenté par Monin et Miller [2001], une fois qu’un individu a démontré ses valeurs morales, vis-à-vis de lui-même ou de la société, il sera plus enclin à les enfreindre ultérieurement.
La croyance en un monde juste, ou hypothèse du monde juste, est un biais cognitif originellement décrit par le psychologue social Melvin J. Lerner (en), suivant laquelle on obtient ce qu’on mérite ou mérite ce qu’on obtient. Selon cette croyance, toute noble action d’une personne doit nécessairement et justement tendre à lui être bénéfique, tandis que toute action mauvaise tend à lui nuire. Autrement dit, l’hypothèse
du monde juste est la tendance à considérer des événements produits ou attendus comme les conséquences d’une force universelle restaurant l’équilibre moral. Cette croyance implique généralement l’existence d’une force métaphysique : équilibre ou justice cosmique, destin, providence, etc. Elle peut aisément être la cause de sophismes, de rationalisation comme le blâme de la victime pour son propre malheur.
Le biais sophistique est une erreur logique consistant à prétendre que si un argument contient une erreur logique, alors la proposition qu’il défend est fausse. Une déclaration vraie peut être défendue avec une logique fallacieuse, donc l’utilisation d’une logique fallacieuse pour défendre une opinion n’est pas la preuve que l’opinion est incorrecte.
L’argument d’autorité consiste à invoquer une autorité lors d’une argumentation, en accordant de la valeur à un propos en fonction de son origine plutôt que de son contenu.
Le biais d’automatisation est la propension des humains à favoriser les suggestions issues des systèmes automatisés de prise de décision et à ignorer l’information contradictoire acquise sans automatisation, même si elle est correcte. Ce problème fait l’objet d’une attention particulière, car la prise de décision dans des contextes aussi critiques que les unités de soins intensifs, les centrales nucléaires et les cockpits d’aéronefs implique de plus en plus de systèmes informatisés et d’aides à la décision.
L’« effet de mode » définit l’effet d’un comportement grégaire où les individus se conduisent comme des moutons de Panurge. Soit le fait que certains esprits indécis finissent par prendre tardivement leur décision en imitant ce que pense ou fait la majorité. La pression sociale existe et nous incite au mimétisme, à un comportement conforme. Dans une situation ambiguë ou difficile à trancher, le choix de la majorité peut sembler d’autant plus acceptable qu’un grand nombre d’autres le partage. La pression pour se conformer est alors si puissante qu’elle échappe à toute forme de rationalité ou de critique.
L’effet placebo est l’amélioration de la santé, mesurable, observable, ou ressentie, qui n’est pas attribuable au traitement. Beaucoup de gens pensent que cet effet est dû au placebo lui-même, d’une façon mystérieuse. Un placebo (du latin “Je plairai”) est une médication ou un traitement que le prescripteur pense être inerte ou inoffensif. Les placebos peuvent être des pilules de sucre ou d’amidon. Même une “fausse” chirurgie et une “fausse” psychothérapie sont considérées comme des placebos.
La confabulation correspond à un récit imaginaire qui se manifeste comme une compensation d’un déficit de mémoire touchant le passé ou le présent. C’est surtout après des épisodes confusionnels et dans des atteintes graves de la mémoire de fixation, telles qu’on les constate dans la psychose de Korsakov et la presbyophrénie, que des confabulations répétées viennent ainsi émailler le discours du patient pour combler ses lacunes mnésiques.
L’illusion des séries (en anglais clustering illusion) est la tendance à percevoir à tort des coïncidences dans des données au hasard. Cela est dû à la sous-estimation systématique par l’esprit humain de la variabilité des données.
Les individus sont parfois amenés à estimer la probabilité d’observer un résultat particulier dans un échantillon (exemple : estimation de la probabilité d’une famille d’avoir 100 % d’enfants de sexe masculin). Cependant, la taille de l’échantillon a un impact sur les probabilités. Il est par exemple plus probable d’avoir 100 % de garçons dans une famille avec deux enfants que dans une famille avec huit enfants. Toutefois la taille de l’échantillon n’est généralement pas prise en compte par les individus.
Inaptitude à évaluer correctement les risques et périls qui nous pousse à sur-évaluer le danger d’activités plutôt inoffensives tandis qu’elle nous fait sous-évaluer les périls d’autres qui le sont bien plus.
Recommandations et anecdotes frappantes sont l’une des plus populaires et convaincantes formes de “preuves” présentées en faveur de la croyance dans le transcendant, le paranormal et le pseudoscientifique. Néanmoins, recommandations et anecdotes dans ces domaines ont une valeur à peu près nulle pour établir la probabilité des faits qu’elles sont censées supporter. Un récit sincère et vibrant de sa rencontre avec un ange, un extra-terrestre, un fantôme ou le Yéti, ou d’une aura pourpre autour de patients mourants, d’un sourcier miraculeux, d’un gourou qui lévite ou d’un chirurgien parapsychologue est de très faible valeur empirique pour savoir s’il est raisonnable d’y croire. De tels récits sont intrinsèquement peu fiables et biaisés.
L’illusion de compétence réfère à la croyance que la compétence, et non le hasard ou la chance, rend compte de l’exactitude de prévisions de ce qui n’est pas prévisible, comme la météo à long terme que l’on trouve dans les almanachs agricoles, et les prévisions des experts du marché quant aux fluctuations boursières à lointaine échéance. L’illusion de compétence décrit aussi avec précision l’apparente justesse de la vision à distance. Étant donné que toutes les prédictions de vision à distance sont prétendument faites par télépathie, seul le hasard peut expliquer que certaines soient à peu près justes. Cependant, une bonne partie de l’exactitude attribuée à ces voyants est due aux libres et complaisantes interprétations, par eux-mêmes ou par des « experts », de leurs descriptions vagues et imprécises de lieux et d’événements.
En logique philosophique, le sophisme de l’homme masqué est commis lorsque l’on fait un usage inapproprié de la loi de Leibniz dans un argument. La loi de Leibniz stipule que, si un objet a une certaine propriété, alors qu’un autre objet n’a pas la même propriété, les deux objets ne peuvent pas être identiques.
Le nom de l’erreur vient de cet exemple:
Prémisse 1 : Je sais qui est Bob.
Prémisse 2 : je ne sais pas qui est l’homme masqué.
Conclusion : par conséquent, Bob n’est pas l’homme masqué.
Les prémisses peuvent être vraies et la conclusion fausse si Bob est l’homme masqué et que le locuteur l’ignore. Ainsi, l’argument est alors fallacieux.
L’illusion de la récence est la croyance ou l’impression qu’un mot ou un usage linguistique serait d’origine récente alors qu’il est en fait établi depuis longtemps. Cependant, l’utilisation du terme ne se limite pas aux phénomènes linguistiques: Zwicky l’a défini simplement comme « la croyance que les choses que vous avez remarquées récemment seraient aussi récentes dans la réalité. »
L’erreur du parieur ou sophisme du joueur est une erreur de logique consistant à croire que si, lors d’un tirage aléatoire, un résultat peu probable est obtenu un grand nombre de fois, les tirages suivants vont probablement compenser cette déviation et donner de nombreuses fois le résultat opposé. Par exemple, si en tirant à pile ou face un joueur obtient un grand nombre de fois pile, il va croire avoir plus de chance d’obtenir face lors des tirages suivants.
L’erreur de la main chaude est la croyance irrationnelle selon laquelle si vous gagnez ou perdez plusieurs fois d’affilée à des jeux basés sur la chance, vous êtes respectivement «chaud» ou «froid», signifiant que la série risque de se poursuivre et qu’elle impliquerait autre chose que les pures probabilités.
La corrélation illusoire, ou corrélation trompeuse, est un biais cognitif qui consiste à percevoir une corrélation entre deux évènements, corrélation qui n’existe pas ou qui est bien plus faible en réalité. Ce phénomène de psychologie sociale a été mis en évidence en 1967 par deux psychologues américains, Chapman et Chapman.
Un nuage ressemblant à un ange rassure certains – et terrifie d’autres. Des embouteillages s’étirent sur plusieurs pâtés de maisons tandis que des gens s’entassent pour voir la Vierge Marie sur une fenêtre de salle de bain. Des photos de cailloux martiens ressemblant à des gens, des rats ou des crabes deviennent virales en un instant. Voilà le pouvoir de la paréidolie, une étrange, mais parfaitement naturelle, fonction du cerveau humain qui nous fait plaquer des motifs sur des collections aléatoires d’images ou de sons. Formé du grec para – à la place de, au lieu de – et eidolon – image, forme – c’est une ancienne capacité qui semble avoir aidé à notre survie dans un passé lointain, lorsqu’il était essentiel de discerner les dangers cachés dans le paysage. En particulier, Carl Sagan fit cette affirmation dans son livre de 1995 « Un monde hanté par les démons – la Science comme une chandelle dans les ténèbres », présupposant que c’est un phénomène résultant de la façon dont notre cerveau interprète les ombres et lumières (créant parfois de la signification là où il n’y a rien du tout).
Nous rapportons intuitivement les phénomènes qui se produisent dans notre environnement à deux types de causes : des causes non intentionnelles et des causes intentionnelles. Si un papier est transporté par l’air, nous attribuons cela à la force du vent et non à une intention particulière. Ce biais a été étudié par John McClure et ses collègues et il a été trouvé que les individus étaient plus enclins à attribuer des évènements (accident, incendie) à des causes intentionnelles. Sans explication, l’esprit tend naturellement à supposer des intentions derrière des évènements. Nous avons connaissance de ce biais depuis au moins 1944 grâce à des expérimentations montrant que même des formes géométriques bougeant aléatoirement inspiraient aux gens des patterns intentionnels, jusqu’à 98% des cas.
L’anthropomorphisme est l’attribution de caractéristiques du comportement ou de la morphologie humaine à d’autres entités comme des dieux, des animaux, des objets, des phénomènes, voire des idées. Le terme a été crédité au milieu des années 1700. Des exemples incluent notamment les animaux et les plantes, ainsi que des forces de la nature comme le vent, la pluie ou le Soleil sont décrits comme des phénomènes à motivations humaines, ou comme possédant la capacité de comprendre et réfléchir.