Licence CC BY-NC-ND

L'économie comportementale

Quand prise de décision et finances font mauvais ménage !

Publié :
Auteurs :

Catégorie :

Vous prenez des décisions tous les jours, certaines d'entre elles pouvant être des décisions économiques. Les chercheurs ont crée diverses théories pour expliquer comment les humains prennent des décisions, en se basant sur des intuitions ou sur des données expérimentales. Ce cours se propose de faire une revue des théories de la prise de décision les plus influentes.

Théories normatives

Dans ce qui va suivre, nous allons étudier des situations à l'issue incertaine, qui comportent un "risque" : la situation peut évoluer de plusieurs manières, qui peuvent avoir des conséquences variées. Prenons l'exemple ultra-simplifié d'un investisseur qui souhaite investir 1000 euros dans une entreprise fondée récemment. Il peut faire deux choix : soit investir 1000 euros, soit ne pas investir. Chaque choix peut avoir deux conséquences différentes suivant que l'entreprise puisse verser les intérêts, ou qu'elle dépose le bilan. Par exemple, l'investisseur recevra 1100 euros (investissement plus intérêts) si l'entreprise survit, mais ne recevra rien en cas de faillite.

Dans de telles situations, les sujets font une évaluation subjective des probabilités de chaque conséquence. Par exemple, un investisseur n'investira pas si l'entreprise a de fortes chances de couler avant de verser ses premiers intérêts, sauf si celle-ci promet un taux d'intérêt élevé.

Théorie de la valeur espérée

La théorie de la valeur espérée postule que les sujets calculent l'espérance statistique (moyenne pondérée par les probabilités) de l'argent reçu pour chaque choix, et choisissent celui qui a l'espérance la plus grande. L'argent reçu est considéré comme étant une variable aléatoire, qui prend une valeur différente pour chaque conséquence, chaque conséquence ayant une probabilité d’occurrence non-nulle.

Formule de calcul

En clair, soit une action A, qui donne naissance à n "conséquences" suivant l'évolution de la situation. Ces conséquences seront notées Ci. Chaque conséquence Ci va avoir une probabilité d’occurrence pi, et donnera un gain (financier ou subjectif) gi. La valeur espérée est égale à $\sum_i p_i \times g_i$.

Par exemple, prenons le cas d'un parieur qui a le choix entre deux options :

  • on jette un dé à 80 faces : le parieur gagne 320 euros si le dé tombe sur une face bien précise, et il ne reçoit rien sinon ;
  • il reçoit un euro et repart avec sans avoir à jouer à un quelconque jeu de hasard.

La théorie de la valeur espérée dit que le parieur choisira la première option : le second choix a une espérance de 1 euro, alors que le choix du jet de dé a une espérance de 4 euros. En effet, le joueur qui choisit la première option a une chance sur 80 de gagner 320 euros et 79 chances sur 80 de ne rien gagner. Les calculs donnent une espérance de $320 \times \frac{1}{80} = 4$ : l'espérance est supérieure.

Paradoxe de Saint-Pétersbourg

Mais cette théorie autorise des options avec une espérance infinie : c'est le paradoxe de Saint-Pétersbourg. Imaginez le pari suivant, qui fait intervenir une banque, un parieur et un tiers qui tire une pièce à pile ou face. Le parieur parie une somme d'argent initiale de son choix. Si la pièce tombe sur pile, le parieur et la banque ne gagnent et ne perdent rien et on relance la pièce. Si la pièce tombe sur face le jeu s’arrête et la banque donne une certaine somme d’argent au parieur : elle donne un euro au premier tour, deux euros au second lancer, quatre au troisième, etc. Ainsi, les gains espérés suivant l'historique de la partie sont les suivants :

  • Face : 1 euro ;
  • Pile, Face : 2 euros ;
  • Pile, Pile, Face : 4 euros ;
  • Pile, Pile, Pile, Face : 8 euros ;
  • Pile, Pile, Pile, Pile, Face : 16 euros ;
  • etc.

Si on fait le calcul, on obtient une espérance infinie.

Maintenant, prenons quelques sujets et demandons leur de choisir parmi les deux options suivantes :

  • soit le sujet joue au jeu proposé ci-dessus ;
  • soit il reçoit 20 euros sans parier.

Les sujets préféreront la seconde option, alors que son espérance est inférieure…

Théorie de l'utilité espérée

Pour résoudre ce paradoxe, les mathématiciens ont créé la théorie de l'utilité espérée. Pour résumer, cette théorie suppose simplement que les sujets ont des préférences stables, qui ne changent pas avec le temps ou les conditions du choix.

Fonction d'utilité

Cette théorie quantifie la préférence du sujet pour un choix bien précis. Pour cela, elle attribue une utilité ui à une conséquence Ci en fonction du gain qu'elle permet d'obtenir (la fonction d'utilité n'est pas fixée, et beaucoup de fonctions mathématiques peuvent servir de fonction d'utilité). L'utilité d'un choix est la somme des utilités de chaque conséquence d'un choix : $\sum^i u_i(g_i) \times p_i$. Face à plusieurs options, les sujets choisissent celle dont l'utilité est maximale. Si jamais deux options sont une utilité identique, les sujets sont indifférents et choisissent les deux options au hasard.

Mais pour résoudre le paradoxe de Saint-Pétersbourg tout en conservant une possibilité de choix rationnel (gain maximal), une fonction d'utilité doit respecter plusieurs contraintes :

  • les utilités peuvent être comparées entre deux choix ;
  • les préférences sont transitives ;
  • l'ajout d'options alternatives ne change pas les préférences déjà établies avant l'ajout : si jamais le sujet préfère l'option A à l'option B, le fait de rajouter une option C n'y change rien ;
  • si deux choix partagent des conséquences (même probabilité et mêmes gains), leurs différences d'utilités espérées ne proviennent pas de ces conséquences.

Avec ces contraintes, le théorème de Von Neumann–Morgenstern dit qu'on peut déterminer une utilité finie pour chaque choix et les ordonner suivant un ordre total.

Aversion au risque

Cette théorie permet de modéliser l'attitude des sujets face au risque :

  • soit le sujet a une aversion au risque : il a tendance à éviter les choix risqués ;
  • soit il prend des risques et est alors dit "preneur de risque" ;
  • soit il est relativement neutre face au risque.

Prenons l'exemple suivant, où le sujet a le choix entre deux situations :

  • soit il tire une pièce à pile ou face, gagne 100 euros avec pile et repart sans rien avec face
  • soit il reçoit 50 euros sans parier.

Une personne avec une aversion au risque préférera recevoir les 50 euros au lieu de parier. Un sujet preneur de risque préférera parier que recevoir les 50 euros. Et une personne neutre vis-à-vis du risque choisira au hasard.

Ces trois situations correspondent à des fonctions d'utilité différentes :

  • l'aversion au risque est le signe d'une fonction d'utilité concave ;
  • les preneurs de risque ont une fonction d'utilité convexe ;
  • les autres ont une fonction d'utilité linéaire.

Economie comportementale

De nos jours, la théorie de l'utilité espérée a été remplacée par des théories psychologiquement réalistes, donnant naissance au courant de l'économie comportementale. La théorie de l'utilité espérée est peut-être une référence pour les économistes néo-classiques, mais la quasi-totalité des études réalisées à ce jour montre des violations systématiques de grande ampleur des axiomes de l'utilité espérée. En clair : la théorie de l'utilité espérée n'est pas une approximation valide de la prise de décision par des sujets humains.

Rationalité limitée

Le domaine de la Behavioral economics prend ainsi ses racines dans les travaux d'Herbert Simon, qui lui ont valu le prix Nobel d'économie. Herbet Simon travaillait sur la résolution de problème à une époque où l'analogie ordinateur/esprit était très bien implantée : on voyait le cerveau comme un système de traitement d'information, et les chercheurs voyaient l'esprit comme une sorte d'algorithme au sens de Turing. En conséquence, les travaux de l'époque étaient avant tout des travaux d'IA appliquée à l'esprit humain si on peut dire : on créait des simulateurs informatiques, des sortes d'IA en essayant de simuler certains résultats d'expériences (ce qui est toujours fait, mais avec une autre approche).

Mais à la différence d'un ordinateur, un humain a une puissance de calcul limitée, ce qui ne permet pas de faire des choix optimaux du point de vue de l'utilité espérée. Ainsi, les sujets utilisent à la place des heuristiques, des méthodes qui donnent des résultats corrects, mais pas optimaux. L'idée était que au lieu d'obtenir le meilleur résultat en utilisant une fonction d'utilité espérée, les sujets préféraient trouver un résultat qui soit le plus proche possible de l'optimalité. Dans cette théorie, la fonction d'utilité espérée est conservée telle quelle : les humains sont toujours rationnels (la raison étant un mot-valise des économistes qui signifie : comportement compatible avec une fonction d’utilité), mais d'une manière assez limitée.

Ce courant dit de la rationalité limitée, est aujourd'hui tombé en désuétude. Si les chercheurs continuent d'identifier des biais cognitifs, et tentent toujours de les étudier comme s'il s'agissait d'heuristiques, le poids mort de l'intelligence artificielle et l'analogie cerveau/algorithme a depuis longtemps disparu de ces travaux. De nos jours, on ne considère plus que l'humain cherche à optimiser une fonction d'utilité espérée : les théories de l'économie comportementale généralisent la théorie de l'utilité espérée en ajoutant des termes et biais divers dans sa formulation. Et la transformation est souvent radicale, au point qu'on ne peut plus parler d'utilité espérée.

Violations des axiomes de la théorie de l'utilité espérée

Expérimentalement, on peut observer que les contraintes de la théorie de l'utilité espérée sont systématiquement violés quelque soit la situation.

Intransitivité

Les psychologues ont depuis longtemps observé que les choix des sujets ne sont pas transitifs. On peut citer comme exemple l'étude de Tversky, datée de 1969. Dans cette étude, les sujets recevaient des informations pour choisir cinq candidats à un poste d'université. Ces candidats A, B, C, D, et E étaient classés suivant leur réussite à des tests d'intelligence et de stabilité émotionnelle :

  • pour l'intelligence, A < B < C < D < E ;
  • niveau stabilité émotionnelle, A > B > C > D > E.

Quand on demandait aux sujets de comparer les candidats dans l'ordre A, B, C, D, E, la transitivité était respectée : on avait A < B, B < C, etc. Mais quand on demandait aux sujets de comparer directement A avec E, c'était A qui était choisit, violant la transitivité.

Inversions de préférences

Il arrive que les préférences entre deux options s'inversent si on ajoute une troisième option. Voici un exemple tiré du livre Predictably Irrational de Dan Ariely, économiste comportemental. Celui-ci proposa à des étudiants d'une école de management/économie de s'abonner à un journal d'économie durant un an. À un premier groupe d'étudiants, il proposa trois choix :

  • recevoir le journal en version papier pour 125 euros par an ;
  • recevoir le journal par internet pour 59 euros par an ;
  • recevoir le journal papier et la version internet pour 125 euros par an.

Le bilan du premier groupe était simple :

  • 0 étudiant pour le premier choix ;
  • 16 étudiants pour le second ;
  • 84 pour le troisième.

Au second groupe, il ne proposa que les deux dernières versions, et les résultats furent les suivants :

  • 68 étudiants pour le second choix ;
  • 32 pour le troisième.

Les préférences sont inversées : là où le second choix est prioritaire sur le troisième pour le second groupe, c'est exactement l'inverse pour le premier groupe.

Paradoxe d'Allais

Le paradoxe d'Allais (un économiste français) montre des violations systématiques de la dernière contrainte. Ainsi, les sujets préfèrent la première solution entre :

  • choix A : gagner 10.000 euros avec certitude (probabilité de 100%) ;
  • choix B : gagner 15.000 euros avec 90% de chances.

Par contre, dans le choix suivant, ils préfèrent la seconde solution :

  • choix C : gagner 10.000 euros avec 10% de chances ;
  • choix D : gagner 15.000 euros avec 9% de chances.

Pourtant, on peut remarquer que le choix C et D partagent des conséquences communes. Si on note Z les conséquences où le sujet ne touche pas d'argent, on a :

  • choix C = 10% de chances de tomber sur le gain du choix A, et 90% de tomber sur Z ;
  • choix D = 9% de chances de tomber sur le gain du choix B, et 91% de tomber sur Z.

Vu que A est préféré à B, l'axiome de la chose certaine impose que C est préféré à D, ce qui n'est pas le cas.

Mauvaise estimation des probabilités

Si on en croit d'autres expériences, les sujets ont énormément de mal à calculer des probabilités de manière fiable : ils ne tiennent pas compte de la taille de l'échantillon, de la fréquence de base des évènements, gèrent mal les conjonctions et disjonctions d'évènements, etc.

Biais de représentativité et d’accessibilité

Généralement, les sujets surestiment la fréquence des évènements dont ils se rappellent facilement : c'est ce qu'on appelle d'heuristique d’accessibilité. Cette heuristique d’accessibilité a souvent une conséquence assez intuitive : les sujets considèrent comme plus probables les évènements similaires à des évènements familiers, ce qui donne naissance à l'heuristique de représentativité. Ces deux heuristiques sont la cause de plusieurs biais de raisonnement assez intéressants.

Premièrement, les sujets ne prennent pas en compte la fréquence ou la probabilité de base d'un phénomène quand celle-ci est pertinente. Par exemple, c'est ce qui fait que certaines personnes ont tendance à avoir plus peur des accidents d'avion que des accidents de voiture, alors que la probabilité de mourir dans un accident de voiture est supérieure à celle d'un accident d'avion. En effet, les sujets se rappellent plus facilement de certains exemples d'accidents d'avion, qui font souvent beaucoup de morts et sont souvent plus spectaculaires.

Deuxièmement, ils ne prennent pas en compte la taille de l'échantillon quand ils calculent des probabilités. L'exemple suivant est tiré d'une étude de Tversky et Kanhnemann. On dit à des sujets qu'une ville comprend deux hôpitaux, un très grand hôpital et un petit. Dans le grand, 45 bébés naissent chaque jour, contre 15 dans le second. En théorie, le taux de naissance moyen est de 50 garçons pour 50 filles. Mais certains jours, il arrive que plus de 60% de garçons naissent durant une journée. Si on demande aux sujets dans quel hôpital ce genre de chose a le plus de chances d'avoir lieu :

  • 56% pensent que les deux hôpitaux sont à égalité de ce point de vue ;
  • 22% pensent que cela arrive plus souvent dans le premier hôpital ;
  • et 22% dans le second.

Troisièmement, ceux-ci pensent l’occurrence simultanée de deux évènements est plus probable que l’occurrence d'un évènement unique : c'est le biais de conjonction. Par exemple, donnez la description suivante à des sujets : "Linda est une jeune femme de 25 ans, diplômée à BAC +5, qui était très concernée par les problématiques de discriminations et de justice sociale dans sa jeunesse, et qui a participé à diverses manifestations anti-nucléaires". Si on demande à des sujets si Linda est une banquière, ou qu'elle est à la fois banquière et activiste féministe, les sujets prennent le second choix. Pourtant, si on note $P(A)$ la probabilité qu'elle soi banquière et $P(B)$ la probabilité qu'elle soi féministe, le premier choix a une probabilité de $P(A)$ alors que le second a une probabilité de $P(A) \times P(B)$ : le premier choix est nettement plus probable.

Biais d’ambigüité

Quand le sujet n'arrive pas à former une représentation suffisante des probabilités de chaque évènement, il a tendance à être prudent et à favoriser les choix familiers : c'est ce qu'on appelle le biais d’ambiguïté. Un bon exemple de ce biais est illustré par l'expérience d'Ellsberg. Dans cette expérience, des sujets sont mis face à une urne qui contient 90 boules, 30% étant des boules rouges, les autres étant de couleur inconnue. Les sujets doivent alors faire le pari suivant : soit ils gagnent quand ils tirent une boule rouge, soit ils gagnent avec une boule jaune. Les sujets choisissent systématiquement le premier choix, alors qu'il se peut très bien qu'il n'y a que des boules jaunes en plus des boules rouges.

Surestimation des faibles probabilités

D'autres biais cognitifs liés aux probabilités sont possibles. Pour simplifier, les probabilités faibles sont soit négligées, soit sur-estimées, sans intermédiaire entre les deux. Pour rendre compte de ce phénomène, les psychologues ont crée une théorie, la Rank-dependent expected utility. Celle-ci postule que les sujets surestiment les évènements rares, qui donnent des gains ou pertes de grande ampleur. Pour faire simple, les sujets modifient les probabilités avec une fonction de pondération qui :

  • augmente les probabilités des évènements extrêmes ;
  • et sous-estime les évènements avec des gains ou pertes faibles.

La fonction est illustrée ci-dessous. À part cette modification, le calcul des utilités espérées est conservé tel quel.

Image créee par Rieger, disponible sous licence CC BY-SA 3.0 sur wikicommons

Théorie des perspectives

Outre une mauvaise estimation des probabilités, la prise de décision est fortement influencée par la manière dont les choix sont présentés : la présentation des choix a tendance à en favoriser certains sur les autres dans la prise de décision finale, chose qui n'est pas prévue par la théorie de l'utilité espérée.

Aversion à la perte

Par exemple, les sujets choisissent de préférence les situations présentées comme des gains que les situations présentées comme des pertes : on parle d'aversion à la perte. L'étude la plus emblématique de cet effet de cadrage est celle d'Amos Tversky et Daniel Kahneman, où deux groupes doivent choisir entre deux traitements afin de soigner 600 personnes malades. Le premier traitement a 33% de chances de sauver les 600 personnes et 67% de chances de n'en sauver aucune. Le second traitement sauve 200 malades à coup sûr, et ne sauve pas les 400 autres personnes. Ces deux traitements étaient présentés avec les données du dessus, en ajoutant en plus une forme positive, ou négative :

  • "sauve 200 personnes" contre "laisse mourir" 400 personnes ;
  • et "33% de chances de sauver 600 personnes, 67% de ne pas les sauver" contre "67% de ne pas sauver 600 personnes, contre 33% de chances de les sauver".

Les sujets favorisaient largement les options présentées de manière positive et évitaient les options présentées de manière négative : un peu moins de 3/4 des sujets prenaient la version positive.

De manière générale, les sujets :

  • recherchent le risque dans les situations où ils sont certains de faire face à des pertes ;
  • et évitent le risque quand ils font face à des gains.

Par exemple, les sujets préfèrent choisir la première situation parmi les deux choix suivants :

  • soit gagner 10.000 euros maintenant avec certitude ;
  • soit gagner 15.000 euros avec seulement 90% de chances et rien sinon.

Par contre, les sujets préfèrent choisir la seconde situation parmi les deux choix suivants :

  • soit perdre 10.000 euros maintenant avec certitude ;
  • soit perdre 15.000 euros avec seulement 90% de chances et rien sinon.

Ancrage

En plus du biais d'aversion à la perte, les valeurs présentées avant une prise de décision influencent celle-ci : on parle de biais d'ancrage. Prenons l'exemple d'une interface pour donner de l'argent à une association et évaluons son influence sur les sommes données par les sujets. En plus de laisser le choix du montant du don au sujet, l'expérimentateur présente des suggestions de montants de dons. Il se trouve que les sujets donneront plus si on propose les sommes 5, 10, et 100 euros, que si on propose 1, 5 ou 10 euros : les valeurs présentées servent de point de référence, qui ancrent la décision ultérieure.

Comme autre exemple, les sujets ont tendance à garder les choix par défaut, et ne refusent que rarement ceux-ci. Les preuves vont de l'étude de Thaler sur l'entrée dans un plan d'épargne retraite automatique à l'étude des différences de don d'organe entre états américains. Par exemple, les scientifiques ont observés des différences en terme de don d'organe entre les états américains où le refus de don d'organe est présumé ou non. Dans les états où le donneur doit donner son accord de son vivant pour être donneur, le nombre de donneurs rapporté à la population est plus faible que dans les états où on doit refuser explicitement le don en étant inscrit sur une liste de refus.

Ces résultats ont étés répliqués dans une étude où des expérimentateurs demandaient à des sujets quel était leur choix via un questionnaire. Les sujets devaient simplement répondre à une question qui était : "Cochez la case si vous voulez être donneurs" dans le premier groupe, "Cochez la case si vous refusez d’être donneur" dans le second groupe. Les sujets du second groupe étaient deux fois plus nombreux à refuser que dans le premier groupe.

Enfin, nous avons tendance à faire comme les autres : c'est l'effet de mimétisme. Diverses expériences ont montré que donner des informations (fictives ou non) sur ce que font les personnes de notre voisinage ou d'autres sujets mis dans la même situation avait tendance à orienter les sujets vers les choix pris par leurs pairs. Par exemple, des expériences ont montré que donner des informations sur le taux de participation électorale des voisins avait fait augmenter le nombre de personnes inscrites sur les listes électorales dans une petite ville américaine.

Théorie des perspectives cumulées

Il existe une théorie qui semble résumer les observations précédentes : la théorie des perspectives cumulées de Kahnemann. Celle-ci postule plusieurs choses :

  • les sujets établissent une valeur de référence dépendante de la situation : tout ce qui est en-dessous de cette valeur de référence est considéré comme une perte, et ce qui est au-dessus est un gain ;
  • les pertes sont sur-évaluées comparées aux gains ;
  • les probabilités sont modifiées comme dans la théorie de la Rank-dependent expected utility.

La valeur de référence sert à simuler les effets d'ancrage vus plus haut. En comparaison, la théorie de l'utilité espérée ne tient absolument pas compte de la valeur de référence utilisée pour les comparaisons : on suppose simplement que celle-ci vaut zéro.

La seconde hypothèse permet de simuler l'aversion à la perte. Dans les grandes lignes, elle est représentée dans la théorie par une fonction qui prend en entrée les valeurs des gains et pertes, et ressort une valeur subjective d'utilité. Celle-ci est :

  • concave pour les gains, vu que les sujets évitent le risque pour les gains ;
  • convexe pour les pertes, vu que les sujets recherchent le risque quand ils font face à des pertes.

Fonction d'édition des valeurs de la théorie des perspectives : la valeur subjective associée au choix est en ordonnée, alors que la valeur réelle des gains et pertes est donnée en abscisse

L'utilité espérée est alors calculée à partir :

  • du résultat de cette fonction ;
  • et de la fonction de pondération des probabilités de la théorie de la Rank-dependent expected utility.

La formule finale est donc, en posant v(Ci) la valeur subjective de la conséquence Ci, et w(pi) la probabilité pondérée de la probabilité pi :

$U = \sum_i ( w(p_i) \times v(C_i) )$

Un exemple d'application de cette théorie vient de l'étude de Colin Camerer et de ses collègues sur les temps de travail des taxis new-yorkais. Ceux-ci ont remarqué qu'ils ne suivaient pas le comportement indiqué par les théories de rationalité parfaite. En effet,si les taxis étaient parfaitement rationnels, ils travailleraient beaucoup durant les bons jours (où ils ont beaucoup de clients), mais peu lors des mauvais jours (jours de mauvais temps, par exemple). Mais en réalité, c'est l'inverse : ils travaillent beaucoup les mauvais jours et peu les bons jours. Tout se passe comme s'ils se fixaient mentalement une certaine somme d'argent à gagner par jour et qu’ils arrêtaient de travailler quand ils avaient atteint cette somme. Ce comportement est compatible avec la théorie des perspectives cumulées, si on postule que cette somme d'argent sert d'ancrage.

Choix intertemporel

Il arrive que nos choix n'aient pas de conséquences immédiates. Par exemple, la décision de réviser ses cours ne donne de gains que quelques jours plus tard, lors de l'interrogation. Même chose pour l'investissement ou l'épargne : l'argent investi ou épargné servira plus tard. Ces choix intertemporels forcent à penser à long terme plutôt qu'à court terme, ce qui pose problème aux personnes impulsives ou peu prévoyantes.

Inconsistance temporelle

Il faut évidemment modifier la théorie de l'utilité espérée et les théories concurrentes, pour prendre en compte l'effet du passage du temps sur nos décisions. Dans les grandes lignes, les sujets humains ont une préférence pour le présent : ils préfèrent obtenir un résultat immédiatement que dans le futur. Dit autrement, l'utilité espérée d'un bien est maximale pour le présent et minimale dans un futur très éloignée (même chose pour sa valeur subjective au sens de la théorie des perspectives).

La majorité des modèles utilisés en économie respecte la consistance temporelle : peu importe que nos choix soient faits maintenant ou plus tard, l'ordre de préférence des choix ne change pas. Dit autrement, les utilités de chaque conséquence diminuent de la même manière : une utilité inférieure à une autre le restera aussi dans le futur. Cela se modélise le plus souvent par une diminution exponentielle des utilités avec le temps. Soit u(t) l'utilité d'un bien au temps t, t0 le temps présent, k une constante, on a :

$$u(t) = u(t_0) × e^{-k} (t - t_0)$$

Mais dans la réalité, on observe des phénomènes d'inconsistance temporelle : l'ordre des choix change avec le temps. Dit autrement, l'utilité d'un choix peut devenir supérieure à celle d'un autre choix alors qu'elle était inférieure (et réciproquement). À l'heure actuelle, on modélise cela par une réduction hyperbolique des utilités avec le temps, qui donne de bons résultats expérimentaux.

$$u(t) = u(t_0) \times \frac{1}{1 + k \times (t - t_0)}$$

Comme premier exemple, prenons des sujets auxquels on propose 50 euros maintenant ou 100 euros dans un an : la majorité choisit de recevoir 50 euros maintenant. Mais si on leur propose 50 euros dans 5 ans et 100 euros dans 6 ans, ils choisissent les 100 euros dans 6 ans. Pourtant, le temps qui sépare les deux options est exactement le même dans les deux situations. En effet, si les utilités avaient diminué de la même manière avec le temps, c'est la même option qui aurait dû être choisie, ce qui n'est pas le cas : une option est passée devant l'autre avec le passage du temps.

On peut aussi citer l'étude de Read, Loewenstein et Kalyanaraman, datée de 1999. Dans cette étude, des étudiants recevaient gratuitement des films qu'ils choisissaient parmi deux listes : des films amusants et relativement pauvres sur le plan culturel dans la première liste, contre des films moins rigolos mais plus riches intellectuellement dans la seconde liste. Quand on leur demandait quels films ils regarderaient dans le futur, les sujets citaient surtout des films de la seconde liste. Mais quand on leur demandait de choisir un film à regarder immédiatement, ils choisissaient des films de la première liste.

Illusion monétaire

Lorsqu'un sujet effectue des décisions sur le long terme, il devrait théoriquement prendre en compte l'inflation, l'augmentation du niveau général des prix. En effet, si les prix augmentent plus vite que les salaires, le pouvoir d'achat baisse (et augmente si les prix augmentent moins vite). C'est la même chose avec les taux d’intérêt : en terme de pouvoir d'achat, un taux d’intérêt inférieur à l'inflation est une affaire si vous devez le verser, et une mauvaise nouvelle si jamais vous recevez les intérêts. Mais est-ce que les sujets humains prennent en compte cette hausse des prix lors de décisions économiques ?

Keynes fut le premier à supposer que non : les sujets pensent en valeurs nominales, comme leur salaire sur leur fiche de paie au lieu du pouvoir d'achat. Ainsi, dans les deux choix qui vont suivre, la majorité des sujets préfère la première option alors que la seconde est clairement celle qui donne le meilleur pouvoir d'achat :

  • recevoir un salaire de 30.000 avec une augmentation de 5% par an, sous une inflation de 4% ;
  • recevoir un salaire de 30.000 avec une augmentation de 3% par an, sous une inflation de 1%.

Eldar Shafir, Peter A. Diamond, et Amos Tversky ont montré que cette illusion monétaire est un fait réel, dans une étude datée de 1997. Cette étude a été suivie par quelques autres, qui vont toutes dans le même sens, contrairement à ce que pensent beaucoup d'économistes à l'heure actuelle : la majorité des modèles actuels n'utilisent pas cette illusion monétaire.

Le consensus actuel chez les psychologues est que les sujets peuvent utiliser à la fois les prix avec et sans correction de l'inflation. Malheureusement, ils n'utilisent les prix corrigés que lorsque des indices suffisamment forts leur rappellent que le niveau des prix doit être pris en compte : cela arrive en cas d'hyper-inflation, lors de la signature de contrats à long terme quand l'inflation est relativement stable chez les personnes éduquées. Il faut noter que les personnes ayant reçu une éducation financière insuffisante peuvent être plus vulnérables à ce biais. Cela fait dire à certains économistes que maintenir des prix stables et une inflation faible pourrait avoir des avantages en terme de stabilité financière des ménages.


Comme on le voit, le domaine de la prise de décision commence de plus en plus à prendre en compte les données expérimentales et observationnelles. Les tout premiers modèles, comme l'utilité espérée, étaient conçus par des mathématiciens ou des économistes fortement liés aux mathématiques : il n'est donc pas étonnant que ces modèles ou que les fonctions d'utilité utilisées l'étaient parce qu'elles possédaient des propriétés mathématiques qui simplifient l'analyse calculatoire. Et de nombreux modèles inventés par des mathématiciens, utilisés ou transposés dans le cadre de la psychologie, ont ce problème : c'est valable pour la logique floue dans le cadre de la catégorisation et la formation des concepts, c'est le cas pour l'utilisation de la logique comme mécanisme mental de raisonnement, et ainsi de suite.

De nos jours, on arrive à comparer les résultats de modèles récents avec des données expérimentales. Si c'est clairement une avancée, on peut toutefois critiquer les modèles récents sur un point : ils ajoutent de nouvelles variables libres, inobservables. Si on regarde bien, la théorie des perspectives est une généralisation de l'utilité espérée, elle-même une généralisation de la théorie de la valeur espérée. Et cette généralisation a ajouté des variables impossibles à mesurer en laboratoire (utilité espérée, et ainsi de suite). Dans ces conditions, il est plus facile de reproduire des résultats expérimentaux et les modèles deviennent de moins en moins facile à falsifier. Mais on peut se rassurer en se disant que cette critique est faite pour la quasi-totalité des modèles mathématiques en psychologie cognitive.

On peut aussi critiquer les modèles de prise de décision par le fait que ceux-ci ne font que reformuler les données expérimentales en langage mathématique : ceux-ci ne font pas de prédictions, et ne servent qu'à ré-expliquer les observations expérimentales à posteriori (sans pour autant diminuer la scientificité de ces modèles : la science, ce n'est pas que faire des prédictions). Ces modèles sont aussi purement descriptifs : ils n'expliquent pas les mécanismes en jeu qui permettent de calculer des utilités ou des probabilités subjectives et se contentent de modéliser les résultats de ces processus. Il va de soi que déterminer ces mécanismes et leur fonctionnement sera toutefois nettement plus compliqué, et demandera certainement une théorie unifiée du comportement humain.

L'utilisation de ces modèles en économie est aussi relativement complexe : autant l'utilité espérée pouvait donner des développements mathématiques simples, autant ce n'est pas le cas des modèles de l'économie comportementale. Développer une micro-économie à partir de ces modèles est encore un chantier, et la perte de généralité et de pouvoir prédictif qui en découle n'est pas négligeable.

4 commentaires

Staff

J'ai peut-être loupé quelque chose, mais créer de la connaissance à ce sujet (et la diffuser) ne risque-t-il pas d'influer le comportement des gens et donc de rendre les découvertes caduques ?

+0 -0

A priori, non. De mémoire, si les sujets sont prévenus de l'existence de ces biais avant d'être testé, cela n'a pas d'effets, ou alors des effets mineurs. Mais il faudrait que je regarde en détail du coté des études sur ce qu'on appelle le cognitive bias mitigation/modification. Mais dans les études sur le sujet, les biais en question sont très résistants, et l'entrainement a vraiment peu d'effets dessus.

+0 -0
Vous devez être connecté pour pouvoir poster un message.
Connexion

Pas encore inscrit ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte