Article body

Introduction

Pourquoi les individus prennent-ils des risques ? Pourquoi cherchent-ils à s’en prémunir ? Comment expliquer leur comportement face au risque ? Ces questions qui sont au coeur de l’analyse économique la dépassent en même temps. Elles se posent en effet, non seulement aux autres sciences sociales, notamment la psychologie ou l’anthropologie, mais aussi à la biologie et aux neurosciences.

Jusqu’à la fin du siècle dernier, les réponses des économistes étaient principalement fondées sur des données recueillies à partir de questionnaires utilisant des méthodes de préférences déclarées. Or, il s’est avéré que ces méthodes posaient un problème de crédibilité en raison de l’absence d’incitations pour les répondants à révéler leurs véritables préférences. L’abondante littérature sur les méthodes d’élicitation des consentements à payer offre une illustration parfaite de la controverse autour de la mesure des préférences. La présence d’un biais hypothétique dans les préférences déclarées des répondants impliquerait une surestimation (médiane) de la véritable valeur par n facteur deux ou trois (List et Gallet, 2001; Loomis, 2014). Avec le développement de l’économie expérimentale, de nouvelles méthodes de mesure des préférences pour le risque ont été élaborées. Ces méthodes permettent de s’affranchir de certaines des critiques adressées aux méthodes de préférences déclarées, grâce à la prise en compte d’incitations réelles, notamment monétaires. Le succès de ces méthodes s’explique en partie du fait qu’elles ont produit des résultats différents de ceux obtenus avec des méthodes traditionnelles utilisant des choix hypothétiques. Les travaux de Holt et Laury (2002) par exemple, ont clairement montré que l’aversion pour le risque révélée pour des choix hypothétiques était plus faible que celle révélée pour des choix réels, contrairement aux conjectures de psychologues tels que Kahneman et Tversky (1979).

Mais au-delà des apports méthodologiques pour la mesure des préférences, l’économie expérimentale s’est révélée être un remarquable outil de connaissance des préférences et des comportements face au risque. Ce succès des méthodes expérimentales avec incitations réelles peut s’évaluer notamment à travers son utilisation dans d’autres disciplines que l’économie ou les sciences sociales, par exemple en neurosciences (Rudorf et al., 2012), en biologie (Kandasamy et al., 2014) ou en génétique (Dreber et al., 2010). Mais c’est en premier lieu chez les économistes que l’accumulation des connaissances a connu une inflexion spectaculaire depuis le début du millénaire.

L’objectif de cet article est de passer en revue les avancées de la connaissance sur la prise de risque individuelle permises grâce au développement des méthodes incitatives de l’économie expérimentale. Dans une première section nous passerons brièvement en revue les principales méthodes incitatives d’élicitation des préférences face au risque couramment utilisées dans la littérature économique. La deuxième section présentera une synthèse des apports de l’économie expérimentale pour trois des déterminants majeurs de la prise de risque individuelle : le genre, l’âge et la richesse. Les autres déterminants seront discutés plus brièvement. Dans les deux sections suivantes, nous présenterons les avancées les plus récentes sur deux aspects particulièrement prometteurs de la recherche empirique sur les préférences pour le risque : l’impact du risque inassurable et l’hypothèse comportementale de vulnérabilité (section 3) et le lien entre préférences pour le risque et préférences temporelles (section 4).

1. Méthodes

Traditionnellement les préférences pour le risque ont été élicitées à partir de préférences déclarées sur base de questionnaires. À la suite notamment des travaux de von Neumann et Morgenstern (1947) et du développement du modèle d’espérance d’utilité (EU par la suite), les questionnaires se sont davantage focalisés sur des choix ou des préférences portant sur des loteries hypothétiques. Un des exemples le plus fameux et le plus influent de l’utilisation de loteries hypothétiques est sans doute le travail de Maurice Allais (1953). Bien que certains des résultats obtenus avec les méthodes de préférences déclarées se soient révélés robustes a posteriori, comme l’illustre bien le paradoxe d’Allais, ces méthodes ont fait l’objet de critiques de plus en plus sévères en raison de l’absence d’incitations réelles. Une des premières critiques a été formulée sur la base d’une expérience réalisée par Siegel et Goldstein (1959), dans laquelle la tâche des sujets consistait à prédire la réalisation d’un événement binaire sans connaître sa probabilité. La tâche était répétée 100 fois afin de tester si la fréquence de réponses correctes convergerait vers la véritable probabilité (fixée à trois quarts). Les résultats sont éloquents : la fréquence des bonnes réponses augmente lorsque les sujets sont rémunérés par rapport au traitement de référence où ils ne sont pas rémunérés. La fréquence de bonnes réponses augmente encore davantage lorsqu’on ajoute à la récompense une pénalité en cas de mauvaise réponse. Ces travaux, avec d’autres, ouvraient ainsi la voie à l’introduction de paiements réels pour les choix de loteries.

La plupart des méthodes d’élicitation de l’aversion pour le risque utilisent des loteries binaires, c’est-à-dire des loteries à deux conséquences seulement. Les sujets sont confrontés à un ou plusieurs choix entre des loteries dont les gains et/ou les probabilités sont manipulé(e)s par l’expérimentateur. Deux méthodes ont été très largement utilisées : la méthode de l’équivalent certain et la méthode de la probabilité équivalente. La première consiste à éliciter le montant certain qui laisse le sujet indifférent entre une loterie et ce montant. Par exemple, un individu hostile au risque préfèrera 100 $ pour sûr à une loterie binaire donnant 200 $ ou 0 $ à pile ou face. En réduisant progressivement le montant certain, il est possible d’identifier le seuil d’indifférence de l’individu. La seconde méthode consiste à éliciter la probabilité de remporter le gain le plus élevé d’une loterie binaire qui laisse le sujet indifférent entre cette loterie et un montant certain. Dans l’exemple précédent, un individu hostile au risque préfèrera 100 $ pour sûr à une loterie binaire donnant 200 $ ou 0 $ tant que la probabilité de gagner 200 $ ne dépasse pas 50 %. Mais en augmentant progressivement la probabilité de gagner 200 $, il est encore une fois possible d’identifier le seuil d’indifférence de l’individu. Alors que ces deux méthodes sont théoriquement équivalentes sous l’hypothèse d’EU, Hersey et Schoemaker (1985) et McCord et de Neufville (1986) ont mis en évidence des contradictions flagrantes qui ne sont pas imputables à des erreurs qui auraient été commises par les sujets.

Compte tenu de ces limites, et de l’émergence de nouvelles hypothèses comportementales qui ont donné naissance à des modèles alternatifs à EU, comme par exemple celui de la théorie des perspectives (PT par la suite) de Kahneman et Tversky (1979) ou le modèle d’utilité dépendant du rang des conséquences (RDU par la suite) de Quiggin (1982)[1], des méthodes de plus en plus sophistiquées ont été développées, notamment dans le but de séparer l’élicitation des préférences pour les gains et les pertes et l’élicitation de la fonction de pondération des probabilités (Wakker et Deneffe, 1996; Abdellaoui, 2000; Abdellaoui et al., 2007)[2]. Ces nouvelles méthodes avaient cependant le défaut d’être difficilement utilisables pour des expériences de terrain. De même, lorsque l’on réalise une expérience qui s’intéresse à d’autres aspects du comportement humain que la prise de risque, mais pour laquelle il est néanmoins nécessaire de pouvoir disposer d’une mesure du degré d’aversion pour le risque des sujets, il s’est avéré que ces méthodes étaient trop difficiles à combiner aux autres parties des protocoles expérimentaux. D’autres méthodes ont donc été proposées, certaines connues depuis longtemps, afin de répondre aux attentes des chercheurs ayant besoin d’un outil simple, et si possible fiable, de mesure des préférences pour le risque. Le choix d’une méthode plutôt qu’une autre est souvent le résultat d’un compromis résultant de la sélection de la population cible, la finalité du projet de recherche et le niveau de précision des mesures requis pour y répondre. Cette recherche de compromis a été notamment discutée par Abdellaoui et al. (2010) dans le cadre de l’hypothèse PT et par Dave et al. (2010) dans le cadre de l’hypothèse EU. Ces derniers montrent clairement qu’une méthode plus complexe, telle que Holt et Laury (2002), bien qu’elle permette d’obtenir des prédictions plus fiables, incorpore en revanche davantage de « bruit » dès lors que les sujets concernés ont des compétences modestes en calcul mental.

Dans la suite de ce paragraphe nous présentons brièvement les trois méthodes les plus largement utilisées sous l’hypothèse EU : le choix parmi un ensemble de loteries à la Binswanger (1980), la liste de choix entre deux loteries binaires à la Holt et Laury (2002) et la méthode du choix d’investissement à la Gneezy et Potters (1997).

Une des méthodes les plus anciennes a été proposée par Binswanger (1980) dans le cadre d’une expérience qui se déroulait dans des villages de la zone tropicale semi-aride de l’Inde. Elle requiert simplement que le sujet sélectionne une loterie parmi un ensemble de loteries possibles. Dans l’étude originale de Binswanger (1980), toutes les loteries étaient des loteries binaires symétriques en probabilité (de type pile ou face) et les différentes loteries (de la moins risquée à la plus risquée) offraient les gains suivants : O = (50, 50), A = (45, 95), B = (40, 120), C = (30, 150), E = (10, 190), F = (0, 200)[3]. Chaque individu peut donc être catégorisé selon son choix de loterie entre, extrêmement (O), fortement (A), moyennement (B), ou modérément (C) hostile au risque, ou légèrement hostile à neutre au risque (E), ou neutre à légèrement attiré par le risque (F). Dans le cadre du modèle EU et sous l’hypothèse d’aversion relative pour le risque constante (Constant Relative Risk Aversion, CRRA par la suite) [4], lorsque la fonction d’utilité de Bernoulli (1738) est une fonction puissance, on peut faire correspondre à chaque choix de loterie (A), (B), etc., un intervalle pour le paramètre d’aversion relative pour le risque. Cette méthode présente l’avantage d’être facile à comprendre pour les sujets, rapide à mettre en oeuvre (un seul choix à faire) et de pouvoir être facilement adaptée à une population faiblement éduquée (en utilisant par exemple des photos pour représenter les gains en billets et/ou pièces). Cependant, la méthode de Binswanger (1980) permet uniquement de révéler la préférence des sujets entre une loterie (leur loterie préférée) et les autres.

Une méthode plus sophistiquée, proposée par Holt et Laury (2002), consiste en une liste de choix entre deux loteries binaires, une loterie moins risquée de type A et une loterie plus risquée de type B. Les conséquences des loteries de chaque type (A ou B) restent inchangées tout au long de la liste et seules les probabilités varient. Un des exemples étudiés par Holt et Laury (2002) est le suivant : les deux conséquences des loteries moins risquées de type A sont 40 $ et 32 $ tandis que les deux conséquences des loteries plus risquées de type B sont 77 $ et 2 $. Ainsi, les loteries de type A et B sont respectivement qualifiées de moins et plus risquées dans le sens où la distribution des gains des loteries de type A est moins dispersée ou étalée que celle des loteries de type B. La liste de choix proposée aux sujets dans ce cas est reproduite dans le tableau 1. La liste débute par un premier choix entre la loterie A1 donnant 40 $ avec une chance sur 10 ou 32 $ sinon et la loterie B1 donnant 77 $ avec une chance sur 10 ou 2 $ sinon. En deuxième position sur la liste vient le choix entre la loterie A2 donnant 40 $ avec deux chances sur 10 ou 32 $ sinon et la loterie B2 donnant 77 $ avec deux chances sur 10 ou 2 $sinon. En résumé, en ne position sur la liste (avec n = 1,…,10) vient le choix entre la loterie An donnant 40 $ avec n chance(s) sur 10 ou 32 $ sinon et la loterie Bn donnant 77 $ avec n chance(s) sur 10 et 2 $ sinon[5].

De plus, avant de faire leurs choix, les sujets sont informés qu’une seule question sera sélectionnée au hasard (avec une chance sur 10) pour déterminer leurs paiements, ceci afin de garantir l’indépendance entre les 10 choix effectués par les sujets. Le premier choix de la liste (n = 1) est tel que l’espérance mathématique de gain de la loterie A1 est plus forte que celle de la loterie B1 (32,08 $ > 9,50 $). Cette différence de rendement moyen entre les deux types de loterie diminue de question en question à mesure que n augmente et à la cinquième question l’espérance mathématique de gain de A5 devient plus faible que celle de B5 (36,00 $ < 39,50 $). Ainsi, le rendement moyen de la loterie An est plus fort que celui de la loterie Bn pour n ≤ 4, et inversement pour n ≥ 5. Face à cette liste, un individu neutre au risque devrait d’abord choisir la loterie An pour n ≤ 4, puis la loterie Bn pour n ≥ 5. Typiquement, un individu hostile au risque devrait commencer par chois ir les loteries moins risquées de type A (au moins pour les quatre premières questions de la liste), puis les loteries plus risquées de type B à partir d’un certain seuil ou point de basculement et maintenir ce choix jusqu’à la dernière question. Ainsi, plus un individu est hostile au risque et plus le point de basculement des loteries de type A vers les loteries de type B est tardif. Parallèlement, plus un individu est attiré par le risque plus ce point de basculement est précoce[6]. Dans le même esprit que la méthode proposée par Binswanger (1980), sous l’hypothèse CRRA, à chaque question de la liste correspond un intervalle du paramètre d’aversion relative pour le risque pour lequel un sujet préfère la loterie de type A à la loterie de type B. La méthode de Holt et Laury (2002) a été conçue initialement dans le but d’évaluer la sensibilité du degré d’aversion pour le risque aux montants des gains des loteries sous l’hypothèse EU. Elle est cependant facilement adaptable à l’élicitation de préférences non-EU comme l’ont montré Abdellaoui et al. (2010). Au lieu de faire varier la probabilité de gain des deux types de loteries A et B, Abdellaoui et al. (2010) adoptent la méthode déjà employée par Schubert et al. (1999) qui consiste à maintenir constante la probabilité de gain des loteries de type B tandis que les loteries de type A sont dégénérées avec un gain variant de 77 $ à 2 $. L’intérêt d’utiliser cette variante est de permettre de tenir compte du fait que l’attitude face au risque peut s’exprimer à travers la pondération des probabilités. En effet, ainsi que l’ont montré Kahneman et Tversky (1979), en moyenne les individus sont plus enclins à prendre des risques pour des faibles probabilités, mais se montrent plus hostiles au risque lorsque les probabilités sont élevées.

Tableau 1

Liste de choix entre deux loteries binaires à la Holt et Laury (2002)

Liste de choix entre deux loteries binaires à la Holt et Laury (2002)

-> See the list of tables

Le choix d’investissement a été initialement proposé par Gneezy et Potters (1997) comme une alternative aux méthodes d’élicitation des préférences face au risque fondées sur des loteries pouvant être considérées comme trop abstraites. Cette méthode d’élicitation réplique simplement le problème standard de choix de portefeuille de Arrow (1963, 1971) dans lequel un investisseur peut répartir sa richesse entre un actif risqué et un actif sans risque. L’espérance mathématique du taux de rendement aléatoire de l’actif risqué est supposée strictement plus forte que le taux de rendement certain de l’actif sans risque. Ainsi, l’actif risqué est favorable d’un point de vue actuariel et offre donc une prime d’investissement (equity premium) strictement positive[7]. En conséquence, tout agent neutre au risque ou tout agent attiré par le risque devrait investir l’intégralité de sa richesse dans l’actif risqué. Cette méthode ne permet donc pas de distinguer ces deux types de préférences (neutralité ou attirance) face au risque. D’un autre côté, les investisseurs hostiles au risque mettent en balance le taux de rendement excédentaire de l’actif risqué d’une part, et le risque auquel ils s’exposent d’autre part. Plus le degré d’aversion pour le risque d’un investisseur est important, moins il investit dans l’actif risqué[8].

Bien que les méthodes d’élicitation avec incitations réelles aient permis de réaliser des progrès considérables dans la connaissance des comportements face au risque, des questions quant à leur pertinence demeurent. Dans quelle mesure des méthodes basées sur des choix entre des loteries abstraites, standardisées, aux enjeux généralement faibles, permettent-elles de capter les « véritables » préférences pour le risque des individus ? Des éléments de réponse ont été apportés récemment avec les travaux de Harrison et al. (2007), Faff et al. (2008) et Vieider et al. (2015). Ces travaux montrent clairement une corrélation entre les mesures expérimentales de la prise de risque et les comportements observés selon d’autres méthodes, notamment les préférences déclarées et révélées à travers les comportements. Vieider et al. (2015) montrent que ces résultats sont robustes puisque leurs données ont été recueillies dans 30 pays avec près de 3000 participants. Cependant, comme le montrent Harrison et al. (2007), les choix artificiels de laboratoire ne prédisent correctement les comportements réels qu’en l’absence de risque inassurable. En dehors du laboratoire les sujets sont la plupart du temps exposés à des risques inassurables qui affectent leurs comportements vis-à-vis des risques qu’ils sont amenés à gérer par ailleurs. Ce point sera développé dans la section 3.

2. Déterminants sociodémographiques de la prise de risque

Un grand nombre de déterminants potentiels de la prise de risque ont été identifiés et leurs effets ont été testés à partir des différentes méthodes présentées dans la section précédente. Bien que certains de ces déterminants soient facilement testables en laboratoire, par exemple l’effet du genre, dans la plupart des cas il est nécessaire de recourir à des échantillons non standard, car de nombreuses caractéristiques ont des variances trop faibles pour permettre de détecter des différences à partir de populations d’étudiants, par exemple l’âge, le niveau d’éducation et la richesse. Dans cette section nous nous concentrons sur trois des principaux déterminants qui ont mobilisé l’attention des expérimentalistes : le genre, l’âge et le revenu.

2.1 Le genre

Il est généralement admis que les femmes ont une propension moindre à prendre des risques que les hommes. Les femmes seraient donc plus hostiles au risque que les hommes. Cependant, cette différence n’est pas systématique et sa mise en évidence dépend notamment de la méthode choisie. L’effet du genre sur la prise de risque a fait l’objet de trois revues de littérature récentes : Eckel et Grossman (2008a), Croson et Gneezy (2009) et Charness et Gneezy (2012).

Dans leur revue de la littérature, Charness et Gneezy (2012) considèrent 15 études expérimentales distinctes, chacune fondée sur la méthode des choix d’investissement à la Gneezy et Potters (1997), qui montrent que les femmes investissent typiquement moins dans l’actif risqué que les hommes. Le montant investi par les hommes est en moyenne de 15 à 50 % plus élevé que celui des femmes, selon les études. Cependant, il ne s’agit pas d’un résultat universel! Par exemple, Atkinson et al. (2003) trouvent que les différences s’atténuent, voire disparaissent pour certaines populations ciblées comme les managers. Toutefois les femmes sont minoritaires dans ce groupe, et l’autosélection des individus attirés par le risque pourrait expliquer l’absence de différence selon le genre. En outre, Gneezy et al. (2009) et Gong et al. (2012) soulignent que l’organisation sociale (patriarcale ou matrilinéaire) peut influencer les comportements des hommes et des femmes, en particulier leur propension à prendre des risques : dans les sociétés matrilinéaires, les différences de propension à prendre des risques sont nettement moins prononcées.

Croson et Gneezy (2009) attribuent la différence de comportement face au risque des hommes et des femmes à des différences de réactions émotionnelles : les femmes seraient plus sensibles aux pertes que les hommes, à la fois en termes d’utilité et en termes de pondération des probabilités. Ces transformations subjectives feraient que le risque perçu par les femmes serait plus élevé que le risque perçu par les hommes. Cette tendance serait de plus renforcée par le fait que les hommes sont souvent surconfiants et perçoivent les risques comme des défis plutôt que comme des menaces.

Bien que robuste en apparence, le résultat que les hommes ont une plus forte propension à prendre des risques semble cependant sensible au niveau des enjeux. En particulier, Holt et Laury (2002) trouvent un effet significatif du sexe seulement pour les loteries à enjeux faibles. L’effet du genre disparait pour les loteries à enjeux élevés. Par ailleurs, plusieurs expériences basées sur la méthode de Holt et Laury (2002) n’ont pas trouvé de différence significative entre hommes et femmes, notamment Harrison et al. (2007a) et Galarza (2009) dans des expériences de terrain ou Andersen et al. (2006) et Kocher et al. (2013) dans des expériences de laboratoire. La toute première expérience réalisée par Binswanger (1980) a également montré un effet faible et qui s’expliquerait plutôt par la différence d’éducation entre les hommes et les femmes, plutôt que par le sexe en tant que tel.

2.2 L’âge

Selon un stéréotype répandu, l’aversion pour le risque (financier) déclinerait avec l’âge. Il est toutefois difficile de tester une telle conjecture car de nombreuses caractéristiques démographiques et économiques sont corrélées à l’âge, en particulier la richesse. Bien que difficilement comparables entre elles, en raison des différences méthodologiques et d’échantillonnage, les expériences menées jusqu’à présent ont trouvé des effets contradictoires de l’âge sur la prise de risque. Il faut cependant mentionner la présence d’un biais important dans la mesure où la plupart des expériences menées à travers le monde concernaient des populations d’agriculteurs dans les pays en voie de développement (PVD). Or, cette activité économique est surreprésentée dans ces pays qui souvent offrent un terrain de prédilection à de nombreux expérimentalistes, en raison notamment des faibles coûts d’expérimentation et d’une relative disponibilité des sujets, ces deux choses étant du reste liées.

Plusieurs études expérimentales récentes ont mis en évidence un effet positif et significatif de l’âge sur la prise de risque (Brick et al., 2012; Carpenter et Carderas, 2013; Brauw et Eozenou, 2014). Brick et al. (2012) ont trouvé un effet positif, mais faible, chez les pêcheurs d’Afrique du Sud. Les résultats de Carpenter et Cardenas (2013) sont tirés d’un échantillon de 3109 individus répartis sur 6 grandes métropoles d’Amérique latine[9]. L’expérience de Brauw et Eozenou (2014) concernait les préférences pour le risque chez les agriculteurs du Mozambique. On constate donc une certaine convergence des résultats, d’autant plus remarquable qu’elle concerne des populations très différentes et que les méthodes employées étaient différentes. Des résultats allant dans le même sens ont été mis en évidence par Raynaud et Couture (2010) pour les agriculteurs français.

Certaines études ont cependant trouvé un effet négatif de l’âge sur la prise de risque (Dohmen et al., 2011; Yesuf et Bluffstone, 2009). Mais le résultat empirique le plus fréquemment observé est l’absence d’effet significatif de l’âge, un résultat déjà présent dans les travaux de Binswanger (1980). Des travaux plus récents ont confortés ceux obtenus par Binswanger (1980), notamment Henrich et McElreath (2002), Galarza (2009), Charness et Villeval (2009) et Tanaka et al. (2010).

Selon les travaux de Tymula et al. (2013) portant sur un échantillon nord-américain, la relation entre la prise de risque et l’âge serait en réalité non monotone. Sur la base des résultats d’une expérience ciblée sur des groupes d’âge entre 12 et 90 ans, ils observent une relation en forme de « U inversé » : les plus jeunes (entre 12 et 17 ans) et les plus vieux (entre 65 et 90 ans) ont une plus faible propension à prendre des risques que leurs homologues d’âge médian (entre 30 et 50 ans). Cependant, cette étude révèle également que la cohérence des choix dépend de l’âge : la fréquence des violations de la dominance stochastique de premier ordre est de 24,9 % chez les plus vieux contre seulement 10,1 % chez les adolescents. Cette fréquence est la plus faible chez les deux classes intermédiaires : 5,2 % pour les individus entre 20 et 25 ans et 5,4 % pour les individus entre 30 et 50 ans.

2.3 La richesse : à la recherche de l’aversion absolue pour le risque décroissante

Pour la plupart des économistes, l’aversion pour le risque devrait décroitre avec la richesse : toutes choses égales par ailleurs un individu qui devient plus riche est davantage enclin à accepter un risque additif. Cette conjecture, initialement avancée par Arrow (1963), qui correspond à l’hypothèse d’aversion absolue pour le risque décroissante (DARA par la suite)[10], est notamment sous-tendue par les travaux de Guiso et Paiella (2008) sur la base de préférences déclarées (consentement à payer pour une loterie) des ménages italiens. L’hypothèse DARA est toutefois plus rarement observée dans les expériences de laboratoire et de terrain. Il existe cependant de multiples obstacles méthodologiques qui peuvent parasiter l’observation de la relation entre prise de risque et richesse. Une des difficultés est de disposer d’une mesure empirique fiable de la richesse. Différentes proxy ont été employées (revenu mensuel, taille de la propriété pour les agriculteurs propriétaires ou valeur du patrimoine foncier, valeur du cheptel pour les éleveurs, etc.). La plupart des études sont fondées sur des données transversales. Or, idéalement il faudrait disposer de données longitudinales à partir d’une cohorte représentative, mais à notre connaissance une telle étude n’est pas disponible à ce jour.

La plupart des expériences relatives au lien entre richesse et aversion pour le risque, ont été réalisées sur le terrain afin de disposer d’observations pour lesquelles les disparités de revenu sont suffisamment importantes pour permettre de détecter d’éventuelles différences de tolérance au risque. La méthode de Binswanger (1980) est celle qui a été privilégiée par la plupart de ces études. Wik et al. (2004) trouvent dans leur échantillon de 110 ménages agricoles de Zambie, que l’hypothèse DARA est vérifiée en prenant comme proxy le logarithme du revenu et la taille de l’exploitation. Yesuf et Bluffstone (2009) confirment ce résultat à partir de données collectées auprès des agriculteurs des hauts-plateaux éthiopiens. Les variables proxy pour la richesse (taille de l’exploitation, nombre de têtes de bétail, valeur marchande du bétail et liquidités) sont toutes positivement et significativement corrélées au niveau de risque de la loterie choisie dans la méthode Binswanger (1980).

Cependant, en appliquant la même méthode (Binswanger, 1980) à un échantillon de plus de 3000 individus, Carpenter et Cardenas (2013) ne trouvent aucune corrélation entre leurs 3 classes de revenu et la loterie choisie. En prenant de petits échantillons très ciblés et homogènes, Henrich et McElreath (2002) n’observent pas non plus de corrélation entre le niveau de richesse et le niveau de prise de risque chez les paysans Mapuche (Chili) et Sangu (Tanzanie). D’autres études, plus récentes aboutissent également à la même conclusion troublante d’absence de relation entre indicateur de richesse et propension à prendre des risques (Charness et Villeval, 2009; Galarza, 2009; Tanaka et al., 2010; Brick et al., 2012; Brauw et Eozenou, 2014). Les travaux qui ont utilisé la méthode de Holt et Laury (2002) afin d’estimer d’autres modèles que EU, notamment PT ou RDU, aboutissent à la même conclusion d’absence de relation entre propension à prendre des risques et revenu (Tanaka et al., 2010; Liu, 2008; Brauw et Eozenou, 2014). Par exemple, Brauw et Eozenou (2014) montrent que le modèle RDU est un meilleur prédicteur des choix de leurs sujets que le modèle EU sous l’hypothèse CRRA, mais que quel que soit le modèle retenu, le revenu n’affecte pas la prise de risque. Il semblerait que cette relation dépende aussi du niveau des enjeux. Ainsi, à partir d’une expérience de laboratoire impliquant deux groupes d’étudiants (« riches » et « modestes »), Bosch-Domènech et Silvestre (2006) observent que les étudiants modestes, comparativement aux riches, sont moins enclins à prendre des risques lorsque les enjeux sont faibles mais plus enclins à en prendre lorsque les enjeux sont élevés[11].

Une raison plausible de l’absence de corrélation directe entre richesse et propension à prendre des risques est que la relation entre ces deux variables est peut-être plus subtile. Par exemple Tanaka et al. (2010) ont montré que la propension à prendre des risques des individus était indépendante de leur richesse personnelle, mais dépendait de la richesse moyenne dans leur village. Une raison possible est l’existence de « solidarités » entre villageois leur permettant de « lisser » les variations de richesse individuelles. Cette idée trouve un écho dans les résultats de Carpenter et Cardenas (2013) qui ont introduit la possibilité de mutualiser les risques individuels dans leur expérience[12]. Alors qu’une telle opportunité devrait accroître la propension à prendre des risques des individus, car elle procure une assurance mutuelle, les auteurs observent que certains individus au contraire, deviennent moins tolérants au risque. Il s’avère que ces individus sont significativement moins « performants » que les autres pour cinq des huit critères retenus pour évaluer le bien-être[13].

Une limite importante de certains travaux expérimentaux est qu’ils écartent les sujets incohérents ou ne permettent pas de les identifier. Par exemple, les expériences utilisant la méthode Holt et Laury (2002) écartent souvent les sujets qui alternent plusieurs fois leur choix entre la loterie plus risquée et la loterie moins risquée. De même, les données relatives aux sujets qui violent la dominance stochastique de premier ordre, ou qui changent leur choix lorsque les questions sont doublées, sont souvent écartées de l’analyse. Ceci peut biaiser les résultats et amener à des conclusions erronées comme l’ont montré Jacobson et Petrie (2009). Ces deux auteurs ont en effet mis en évidence l’existence d’une relation entre la fréquence des erreurs (incohérence, violation de dominance, etc.) et les décisions financières. Alors que l’aversion pour le risque explique assez faiblement les décisions financières, la prise en compte simultanée de la propension à prendre des risques et la propension à faire des erreurs a un pouvoir explicatif beaucoup plus élevé. Or, typiquement, certaines méthodes comme celle de Binswanger (1980) permettent difficilement de détecter les erreurs. Dans tous les cas, en négligeant les erreurs, ou en les écartant, on risque d’aboutir à des conclusions erronées.

3. L’impact du risque inassurable sur la prise de risque des agents économiques : théories et expériences

3.1 Qu’entend-on par risque inassurable ?

À chaque instant les agents économiques sont confrontés à de multiples risques. Or pour maints de ces risques, du fait de l’incomplétude des marchés d’assurances, les opportunités de couverture sont souvent limitées. En conséquence, de nombreux risques, pourtant diversifiables, restent inassurables et s’imposent aux agents économiques, violant ainsi le principe de mutualité[14].

Les raisons économiques pouvant expliquer les limites de l’assurabilité sont nombreuses et diverses. Elles englobent notamment l’existence de coûts de transaction importants, le caractère ambigu de la distribution des risques, et l’asymétrie d’information générant des problèmes de sélection adverse et d’aléa moral ex ante et ex post. En particulier, les risques liés au capital humain, comme l’échec scolaire, le chômage de longue durée, ou encore l’absence de promotion, sont des exemples typiques de risques spécifiques inassurables[15].

Quelles qu’en soient les raisons, les limites de l’assurabilité font que les agents économiques ne sont pas en mesure de gérer l’ensemble des risques auxquels ils sont exposés. Ainsi, une quantité plus ou moins importante de risque échappe à leur contrôle et subsiste toujours en arrière-plan des décisions économiques et financières qu’ils sont amenés à prendre par ailleurs. C’est pour cette raison que, dans la littérature économique anglophone, l’on qualifie ce risque exogène inassurable de background risk (BR par la suite)[16].

3.2 Théorie de la décision face au risque en présence de risque inassurable

Dans le cadre de la théorie de la décision face au risque, reconnaître l’existence du BR revient à renoncer à l’hypothèse d’une unique source de risque et conduit à exclure toute référence à une éventuelle situation de parfaite certitude, ce qui affecte significativement l’analyse. Au plan théorique, la prise en compte du BR a ainsi des conséquences étonnamment sensibles sur la nature et les effets de l’aversion pour le risque dans l’analyse des décisions des agents économiques face au risque.

Un premier impact évident du BR apparaît lorsqu’il existe une dépendance statistique entre le BR et les risques gérés par les agents économiques. En général, tout problème de décision face à un risque peut être totalement transformé par la prise en compte du BR dès lors que le BR est corrélé à ce risque. Le BR peut notamment exacerber ou atténuer le risque, selon la nature particulière de la corrélation. Ainsi, l’impact du BR dépend du lien de dépendance statistique particulier existant entre le BR et les risques sujets à décision.

En outre, même si le BR est supposé statistiquement indépendant des risques gérés par les agents économiques, le BR peut sensiblement affecter leur comportement face au risque par le biais de son impact sur leur richesse. Dans le cadre axiomatique de l’espérance d’utilité de von Neumann et Morgenstern (1944), plusieurs auteurs comme Hart (1975), Ross (1981), Kihlstrom, Romer et Williams (1981), Nachman (1982) ou encore Pratt (1988) ont attiré l’attention sur le fait que la prise en compte du BR était en mesure d’invalider certains des résultats fondamentaux de la théorie de la décision face au risque[17]. À la suite de ces travaux précurseurs, une littérature théorique conséquente s’est attachée à étudier l’impact du BR sur les décisions économiques et financières des agents, comme la décision d’assurance (Doherty et Schlesinger, 1983; Eeckhoudt et Kimball, 1992; Meyer et Meyer, 1998), le choix de portefeuille et la valeur des actifs financiers (Mehra et Prescott, 1985; Weil, 1992; Finkelshtain et Chaflant, 1993; Heaton et Lucas, 2000; Franke, Stapleton et Subrahmanyam, 1998, 2004) ou encore le partage Pareto-optimal du risque (Gollier, 1996; Dana et Scarsini, 2007)[18].

3.3 L’hypothèse comportementale de vulnérabilité

Une notion fondamentale a émergé de la littérature sur le BR : la notion de vulnérabilité au risque. Par définition, un agent est qualifié de vulnérable au risque dès lors que l’ajout d’un BR tempère sa prise de risque. Selon la nature particulière du BR, ou selon la classe de BR considérée, Gollier et Pratt (1996) ont défini quatre niveaux de vulnérabilité différents.

La vulnérabilité de niveau 1 est la moins restrictive. Elle correspond à l’hypothèse d’aversion absolue pour le risque décroissante (DARA), postulée initialement par Arrow (1963), et implique une vulnérabilité à tous les BR présentant uniquement des conséquences négatives. La vulnérabilité de niveau 2 ou risk vulnerability a été introduite et caractérisée par Gollier et Pratt (1996) dans le cas d’un BR d’espérance mathématique non positive[19]. Comme cette dernière classe de BR inclut la précédente, la vulnérabilité de niveau 1 est nécessaire pour la vulnérabilité de niveau 2. En conséquence, DARA est une condition nécessaire pour la vulnérabilité de niveau 2. Comme l’ont montré Gollier et Pratt (1996), la condition nécessaire et suffisante pour la vulnérabilité de niveau 2 est une condition bivariée portant sur la fonction d’utilité de Bernoulli (1738) qui reste difficilement interprétable. Toutefois, une condition suffisante simple et intuitive pour la vulnérabilité de niveau 2 est que la fonction d’aversion absolue pour le risque soit décroissante et convexe avec la richesse. Cette dernière condition est plutôt cohérente dans le sens où si l’on accepte l’hypothèse d’une aversion absolue pour le risque décroissante avec la richesse, il est assez naturel de supposer qu’elle est également convexe, impliquant par exemple que la prime de risque de Arrow (1963) et Pratt (1964) décroît à taux décroissant avec la richesse.

Les niveaux supérieurs de vulnérabilité 3 et 4 correspondent à des restrictions précédemment introduites dans la littérature afin d’écarter certains comportements pouvant être considérés comme incohérents. La restriction de proper risk aversion introduite par Pratt et Zeckhauser (1987) garantit par exemple qu’un agent qui jugerait deux risques indépendants indésirables, et qui serait contraint d’accepter l’un d’entre eux, ne devrait pas soudain juger l’autre risque désirable, excluant ainsi toute fallacy de la loi des grands nombres à la Samuelson (1963). Cette restriction est équivalente à la vulnérabilité de niveau 3, c’est-à-dire la vulnérabilité à tous les BR jugés indésirables par tout agent hostile au risque. Comme cette dernière classe de risque inclut les risques d’espérance non positive, la vulnérabilité de niveau 2 est nécessaire pour la vulnérabilité de niveau 3. Finalement, la restriction de standard risk aversion introduite par Kimball (1993) est équivalente à la vulnérabilité de niveau 4, c’est-à-dire la vulnérabilité à tous les BR ayant un impact positif sur l’utilité marginale du revenu. Kimball (1993) a montré que la vulnérabilité de niveau 4 implique la vulnérabilité de niveau 3 et que les hypothèses de prudence absolue décroissante (DAP) et DARA forment conjointement une condition nécessaire et suffisante pour la vulnérabilité de niveau 4[20].

On peut résumer ces 4 niveaux de vulnérabilité de la manière suivante : la vulnérabilité de niveau 4 ou standard risk aversion implique la vulnérabilité de niveau 3 ou proper risk aversion, qui implique la vulnérabilité de niveau 2 ou risk vulnerability, qui implique la vulnérabilité de niveau 1 ou DARA, la réciproque de chacune de ces implications étant fausse.

Même si la quasi-totalité des travaux s’intéressant à l’impact du BR sur la prise de risque des agents économiques adoptent le cadre axiomatique de l’utilité espérée, il est important de reconnaître que la notion de vulnérabilité n’est pas spécifique à ce modèle. De plus, même si l’on peut considérer que la vulnérabilité est une hypothèse attractive d’un point de vue normatif, dans le sens où elle s’intègre assez naturellement et de manière plutôt cohérente au sein des hypothèses standards du modèle d’espérance d’utilité, elle n’est aucunement une prédiction ou une implication de ce modèle. Comme le montre Ross (1999), le modèle d’espérance d’utilité s’accommode également très bien de l’hypothèse inverse. En effet, la vulnérabilité reste une hypothèse comportementale qui n’est spécifique à aucun modèle de décision : un agent est vulnérable dès lors que l’exposition au BR tempère sa prise de risque. De plus, la vulnérabilité peut être interprétée comme un trait général des préférences des agents économiques face à des risques statistiquement indépendants : un agent est vulnérable dès lors qu’il considère les risques statistiquement indépendants comme des substituts. Intuitivement, considérer des risques indépendants et indésirables comme des substituts revient à considérer qu’ils s’aggravent mutuellement. On peut ainsi interpréter la vulnérabilité comme un trait particulier des préférences des agents impliquant une sensibilité croissante à l’accumulation du risque[21].

Quoi qu’il en soit, la question de savoir si les agents économiques sont vulnérables ou non au risque reste une question empirique. Le moyen le plus simple de tester l’hypothèse de vulnérabilité est d’analyser des données naturelles concernant les comportements de prise de risque des agents économiques. Mais compte tenu du fait que le BR est difficilement mesurable en pratique, la portée de cette approche reste limitée. L’expérimentation économique apparaît ainsi comme une alternative intéressante dans la mesure où elle permet un contrôle total du BR.

3.4 Tests empiriques de l’hypothèse de vulnérabilité

A partir de données naturelles tirées d’une enquête sur le budget des ménages italiens, Guiso, Jappelli et Terlizzese (1996) ont trouvé que la détention de placements financiers risqués des ménages italiens était négativement corrélée à la variabilité de leurs revenus du travail. Sur la base de préférences déclarées, en interrogeant les ménages sur leur disposition maximale à payer pour acquérir une loterie binaire fictive permettant de gagner 5000 euros ou rien avec une chance sur deux, Guiso et Paiella (2008) ont étudié le lien entre la prise de risque des ménages et leur richesse et concluent à une aversion absolue pour le risque décroissante et convexe, soit une condition suffisante pour la vulnérabilité de niveau 2 à la Gollier et Pratt (1996).

Sur la base d’une expérience économique de terrain avec des sujets numismates[22], Harrison, List et Towe (2007) concluent très nettement en faveur de l’hypothèse de vulnérabilité. Dans leur expérience, l’intensité de la prise de risque des sujets numismates est mesurée grâce à une liste de choix entre des paires de loteries à la Holt et Laury (2002). L’expérience comporte deux traitements principaux, et chaque sujet participe à un seul traitement[23]. Dans un premier traitement, les gains des loteries sont des dollars. Dans un deuxième traitement, les gains des loteries sont des pièces de monnaie de collection accompagnées d’un certificat d’authenticité. Dans un troisième traitement, les gains des loteries sont les mêmes pièces de monnaie de collection mais ne sont pas accompagnées d’un certificat d’authenticité. Selon les auteurs, la valeur des pièces de monnaie de collection non certifiées est implicitement soumise à un BR (relativement à la valeur des pièces de monnaie de collection certifiées). Les auteurs n’ont observé aucune différence significative entre les deux premiers traitements. Par contre, en comparant les deux premiers traitements avec le troisième traitement, ils observent un impact négatif et significatif du BR sur la prise de risque des sujets numismates, confirmant ainsi l’hypothèse de vulnérabilité au risque.

Sur la base d’une expérience économique de laboratoire avec des sujets étudiants, Beaud et Willinger (2013) concluent également en faveur de l’hypothèse de vulnérabilité au risque. Dans cette expérience, l’intensité de la prise de risque des sujets est mesurée grâce à un choix d’investissement à la Gneezy et Potters (1997). L’expérience comporte deux traitements, et chaque sujet participe aux deux traitements[24]. Les deux traitements diffèrent uniquement par la présence d’un BR affectant ou non la richesse des sujets. Dans cette expérience, les sujets disposent de 20 euros uniformément répartis dans deux comptes distincts, chaque compte étant ainsi crédité de 10 euros. Dans les deux traitements, les sujets peuvent utiliser les 10 euros de l’un des deux comptes pour investir dans une loterie binaire permettant de tripler le montant investi ou de le perdre avec une chance sur deux. Dans le premier traitement, le solde du compte non utilisé n’est pas affecté, il est de 10 euros. Dans le second traitement, le solde du compte non utilisé est affecté par un BR, il est de 20 euros ou nul avec une chance sur deux. Les auteurs s’intéressant à la vulnérabilité de niveau 2 à la Gollier et Pratt (1996), on peut remarquer que le BR est neutre d’un point de vue actuariel (l’espérance mathématique du solde du compte non utilisé reste de 10 euros). Les auteurs ont observé que 47 % des sujets ont investi un montant strictement plus faible dans la loterie lorsqu’ils étaient exposés au BR. Par ailleurs, 34 % des sujets ont pris la même décision dans les deux traitements, révélant ainsi une indifférence au BR. Ainsi, seulement 21 % des sujets ont contredit l’hypothèse de vulnérabilité au risque d’ordre 2 à la Gollier et Pratt (1996) en augmentant leur prise de risque en présence d’un BR neutre d’un point de vue actuariel.

4. Préférences pour le risque et préférences temporelles : quels liens ?

Plusieurs travaux expérimentaux récents ont montré l’existence d’une relation négative entre impatience et tolérance au risque chez les individus : les individus plus tolérants au risque sont également plus patients, alors que les individus plus hostiles au risque sont également plus impatients. Bien qu’il subsiste des interrogations sur le signe de la relation, l’existence d’une interaction entre ces deux dimensions des préférences semble établie. Ces résultats mettent ainsi en cause le modèle de référence, l’espérance d’utilité actualisée, qui repose sur l’hypothèse d’indépendance entre préférences pour le risque et préférences temporelles. Dans cette section nous passons en revue les principaux travaux mettant en cause l’indépendance entre préférences temporelles et préférences pour le risque et nous discuterons des voies de modélisation qui autorisent l’interdépendance entre les deux types de préférences.

Comme nous l’avons montré dans les sections précédentes, la sensibilité au risque est extrêmement variable d’un individu à l’autre, et dépend d’une multitude de caractéristiques individuelles : le genre, l’âge, le niveau d’éducation, le niveau de santé ou la religiosité, et des déterminants économiques comme le revenu, l’exposition au BR ou encore le statut professionnel. Cependant, des travaux récents de génétique comportementale ont également mis en évidence le caractère héritable de la propension à prendre des risques (Cesarini et al., 2009; Zhong et al., 2009). Carpenter et al. (2011) ont ainsi montré l’existence d’une corrélation entre le gène récepteur de la dopamine DRD4 et une mesure expérimentale de la propension à prendre des risques basée sur des choix de loteries : les individus porteurs de l’allèle 7R de DRD4 sont davantage enclins à prendre des risques comparés aux porteurs de l’allèle 4R. La même étude a montré que les préférences temporelles élicitées à partir d’une séquence de choix entre une somme disponible à court terme et une somme plus élevée disponible à une date future, étaient fortement dépendantes de la présence ou non de l’allèle 7R chez l’individu.

4.1 Élicitation des préférences temporelles

La plupart des méthodes d’élicitation des préférences temporelles ont une forme similaire à la méthode d’élicitation des préférences face au risque à la Holt et Laury (2002) et reposent sur une liste de choix successifs entre deux montants futurs distants, c’est-à-dire des montants accessibles seulement dans le futur et à partir de dates différentes (le présent étant le jour de l ’expérience dans laquelle les sujets font leurs choix). Le tableau 2 illustre ce type de méthode à partir d’un exemple basé sur Coller et Williams (1999).

La liste est composée de quinze choix successifs (n = 1,…,15) entre une option de type A et une option de type B. Avant de faire leurs choix, les sujets sont informés qu’une seule question sera sélectionnée au hasard (avec une chance sur 15) pour déterminer leurs paiements, ceci afin de garantir l’indépendance entre les 15 choix effectués par les sujets. Typiquement, les options de type B offrent un montant plus élevé mais disponible plus tard (avec un délai supplémentaire de deux mois). Avec l’option An, un montant de 500 $ sera disponible dans un mois. Avec l’option Bn, un montant de 500 $ + z$ sera disponible dans 3 mois (avec zn > 0). Les options de type A sont toutes identiques et restent donc inchangées tout au long de la liste, tandis que pour l’option Bn la valeur de zn augmente le long de la liste (de 1,67 à 90,81). Ainsi, un individu impatient devrait commencer par choisir les options de type A, puis les options de type B à partir d’un certain seuil ou point de basculement, et maintenir ce choix jusqu’à la dernière question. Ainsi, plus un individu est impatient et plus le point de basculement de l’option A vers l’option B est tardif. Inversement, plus un individu est patient et plus le basculement se produira tôt, voire dès la première question. La colonne 4 indique le taux d’intérêt annuel correspondant à la valeur de zn qui compense l’attente de 2 mois supplémentaires : par exemple, pour la question n = 4, zn = 4,20 correspond aux intérêts cumulés pour une somme de 500 $ placés pendant 61 jours (2 mois) au taux journalier de (5 %)/365. De même, la colonne 5 indique le taux effectif annuel correspondant.

Tableau 2

Liste des choix entre deux montants futurs distants à la Coller et Williams (1999)

Liste des choix entre deux montants futurs distants à la Coller et Williams (1999)

-> See the list of tables

Plus généralement, avec l’option An = (xn, t) le montant xn est disponible à la date future la plus proche notée t, et avec l’option Bn = (yn, t’) le montant yn est disponible à la date plus éloignée t’ > t. L’individu doit choisir à la date t = 0 entre An et Bn selon une séquence de questions. Soit le montant xn est constant, comme dans le tableau 2, et yn croît avec n, soit yn est fixé et xn décroît avec n. Dans le tableau 2, xn = 500 quel que soit n, t = 1 mois, t’ = 3 mois et yn correspond aux montants de la colonne 3. Dans l’hypothèse où les individus n’ont pas de patience ou d’impatience extrême, c’est-à-dire s’ils n’ont pas de préférence stricte pour une date indépendamment du montant, il existe une valeur de n en-dessous de laquelle l’individu préfèrera l’option An à l’option Bn, et au-dessus de laquelle il préfèrera l’option Bn à l’option An. On peut ainsi identifier pour chaque individu un intervalle [yn, yn+1] dans lequel se situe le montant compensatoire de son attente de la date t à la date t’, c’est-à-dire pour choisir l’option Bn plutôt que l’option An. De façon équivalente on peut déterminer l’intervalle correspondant au taux d’intérêt requis, ou taux d’actualisation subjectif, permettant de compenser l’attente de l’individu de la date t à la date t’.

Même si la méthode n’est pas critiquable en soit, l’interprétation qui en est souvent faite est discutable. En effet, de nombreux travaux expérimentaux interprètent les résultats en faisant l’hypothèse simpliste de linéarité de la fonction d’utilité, c’est-à-dire en supposant qu’il existe ρi qui vérifie xn yn/[1 + ρi], pour une certaine valeur de n, où ρi est le taux d’actualisation subjectif de l’individu i. Il est toutefois évident qu’un individu pour lequel l’utilité marginale de la richesse n’est pas constante ne compare pas xn à yn/[1 + ρi], mais u(xn) à u(yn)/[1 + ρi], comparaison qui s’applique aussi bien sous l’hypothèse d’actualisation exponentielle que quasi hyperbolique. La conclusion est qu’en faisant l’hypothèse de linéarité de la fonction d’utilité, la valeur de ρi sera généralement surestimée comme l’ont montré par exemple Andersen et al. (2008).

Pour éviter l’écueil précédent, une solution consiste à estimer conjointement ρi et la courbure de la fonction d’utilité en combinant deux mesures expérimentales : une mesure de l’impatience obtenue grâce à un questionnaire de type Coller et Williams (1999) et une mesure de la courbure relative de la fonction d’utilité obtenue à partir d’un questionnaire de type de Holt et Laury (2002). Cette stratégie adoptée par Andersen et al. (2008), leur a permis d’estimer des taux d’actualisation bien plus faibles que ceux généralement obtenus en adoptant implicitement l’hypothèse de linéarité de la fonction d’utilité. Les estimations obtenues par Andersen et al. (2008), se fondent en effet sur la spécification plus générale :

avec ωi la richesse non observable de l’individu i. Sous l’hypothèse CRRA, avec forme: 2011384n.jpg, les auteurs peuvent estimer conjointement les paramètres γi et ρi.

Plus récemment, Andreoni et Sprenger (2012) ont proposé une méthode qui permet d’observer directement les arbitrages intertemporels réalisés par un individu à partir d’une séquence de choix d’allocation entre deux dates. Les tâches imparties aux sujets consistent à répartir à la date 0 une dotation fixe de jetons entre la date t et la date t’. Chaque jeton placé à la date t’ rapporte (1 + r) unités de compte expérimentales et chaque jeton placé à la date t rapporte 1 unité de compte expérimentale. En faisant varier le taux de rendement r et le délai entre les deux dates (d = t’ – t), il est possible de collecter un nombre suffisant de données individuelles afin d’estimer un taux d’actualisation subjectif et un paramètre de courbure de la fonction d’utilité pour chaque sujet. Par exemple, Andreoni et Sprenger (2012) estiment les paramètres ρi et γi à partir du modèle suivant :

où ωti peut s’i nterpréter comme la consommation en-dehors de l’expérience (background consumption), et ct comme la consommation résultant du choix d’allocation réalisé par l’individu i.

L’avantage des méthodes proposées par Andreoni et Sprenger (2012) et par Anderson et al. (2008) est de permettre l’obtention d’estimations des taux d’actualisation subjectifs à la fois plus fiables et plus conformes à la théorie des choix intertemporels[25]. Malheureusement, ces méthodes n’étaient pas encore disponibles à l’époque où les études passées en revue dans la section 4.2 ont été réalisées. Cependant, certains résultats semblent suffisamment robustes pour pouvoir résister à un éventuel réexamen à partir de méthodes plus élaborées.

4.2 Corrélation entre préférences pour le risque et préférences temporelles

L’existence d’une corrélation négative entre tolérance au risque et impatience, c’est-à-dire le fait qu’un individu plus tolérant au risque soit également plus patient, a été mise en évidence par plusieurs études expérimentales indépendantes (Anderhub et al., 2001; Burks et al., 2009; Dohmen et al., 2010; Carpenter et al., 2012). Ces études diffèrent cependant sur de nombreux points, en particulier les méthodes d’élicitation employées et les sujets impliqués.

Dohmen et al. (2010) ont montré que les deux dimensions des préférences étaient indirectement reliées à travers les capacités cognitives des sujets : les sujets dont les scores sont les plus élevés pour l’évaluation cognitive sont également ceux qui ont la plus forte propension à prendre des risques et la plus grande patience. A contrario les sujets faiblement notés à l’évaluation cognitive sont les plus hostiles au risque et les plus impatients. Les auteurs montrent également que cette relation inverse entre impatience et tolérance au risque varie continûment avec la mesure de capacité cognitive comme cela est illustré par le graphique 1.

Graphique 1

Relation entre tolérance au risque, impatience et capacité cognitive

Relation entre tolérance au risque, impatience et capacité cognitive

-> See the list of figures

Dans cette étude l’impatience était mesurée par un questionnaire standard pour lequel les sujets avaient le choix entre l’option An = (100 €, 0), c’est-à-dire « 100 euros aujourd’hui » et l’option Bn = (y, 12), c’est-à-dire « y€ dans 12 mois », avec yn ∈ {102,5, …, 156,20}, ce qui correspond à des incréments successifs de 2,5 % par rapport au montant de la question précédente. Le numéro (n) de la question pour laquelle un sujet choisit Bn plutôt que Bn correspond implicitement à son taux d’actualisation subjectif (sous l’hypothèse de linéarité de la fonction d’utilité). Ce taux est indiqué sur l’axe des ordonnées de la partie droite du graphique 1. La tolérance au risque a été mesurée en élicitant l’équivalent certain (EC dans le graphique 1) d’une loterie qui rapporte 0 € ou 300 € avec équi-probabilité. Plus cet équivalent certain est élevé (axe des ordonnées de gauche du graphique 1) et plus l’individu peut être considéré comme tolérant vis-à-vis du risque. Enfin, l’abscisse reporte la capacité cognitive des sujets mesurée à partir de l’échelle d’intelligence de Wechsler normalisé sur une échelle de 0 à 100. Le graphique 1 montre clairement que lorsque le score de capacité cognitive augmente, l’impatience diminue alors que la tolérance au risque augmente. Un des attraits principaux de cette étude est qu’elle porte sur un échantillon de plus de 1000 individus représentatifs de la population allemande[26]. Par conséquent les auteurs ont pu démontrer la robustesse de leur résultat en incluant de multiples variables de contrôle. Une des faiblesses principales est que les répondants n’ont répondu qu’à un seul des deux questionnaires, soit celui mesurant la tolérance au risque, soit celui mesurant l’impatience. Il s’agit donc d’un résultat de corrélation pour l’individu moyen, ce qui enlève d’après nous une grande partie de l’intérêt de cette étude[27]. Une difficulté mineure, mais qui peut aussi être vue comme un avantage, vient de ce que les corrélations ont été établies à partir des données brutes, sans préjuger du modèle sous-jacent.

Burks et al. (2009) ont réalisé une étude similaire, mais ciblée sur un échantillon de plus de 1000 apprentis chauffeurs routiers nord-américains. Les méthodes d’élicitation pour la tolérance au risque et pour l’impatience sont similaires à celles employées par Dohmen et al. (2010) mais elles ont été systématiquement appliquées à chacun des répondants ce qui permet d’étudier les relations sur une base intrasujet. Le score de capacité cognitive a été établi à partir de plusieurs tests dont la mesure du QI. Les auteurs estiment un paramètre d’aversion relative pour le risque pour chaque individu et deux paramètres pour l’impatience sur la base du modèle quasi hyperbolique β – δ, où δ correspond au taux d’actualisation subjectif et β au paramètre de biais en faveur du présent (present bias). Leurs résultats mettent clairement en évidence l’existence d’une relation négative entre γ d’une part et β et δ de l’autre : une augmentation de (diminution de la tolérance) entraine une diminution du facteur d’actualisation (plus d’impatience) à la fois à court terme (β) et à long terme (δ). Par ailleurs le QI est positivement corrélé au facteur d’actualisation de court terme et de long terme, ce qui signifie qu’une augmentation du QI s’accompagne d’une pondération plus forte des paiements futurs.

Willinger et al. (2013) ont confirmé ces résultats à partir d’une expérience de terrain portant sur un échantillon de ruraux exposés au risque de lahars (coulées de boue d’origine volcanique). La tolérance vis-à-vis du risque est mesurée à partir de la méthode du choix d’investissement à la Gneezy et Potters (1997) et les préférences temporelles à partir d’un questionnaire standard correspondant à une version simplifiée du tableau 2. Willinger et al. (2013) trouvent une corrélation négative entre tolérance au risque et impatience à partir des données brutes. Cette étude a été répliquée à deux moments distincts avec les mêmes individus : au début de la saison de la mousson qui correspond à la période d’exposition aux risques de lahars, et après la mousson, après avoir vécu des épisodes de lahars. La relation négative entre tolérance au risque et impatience est observée dans chacun des deux échantillons. De plus lorsqu’on s’intéresse aux changements de préférence des individus, on observe que la plupart des individus qui sont devenus plus (moins) hostiles au risque entre le début et la fin de la période d’exposition sont aussi devenus moins (plus) patients.

Alors que la plupart des modèles économiques supposent que les préférences pour le risque sont indépendantes des préférences temporelles, les travaux expérimentaux que nous venons de présenter ont mis en évidence l’existence d’une corrélation : les individus plus hostiles au risque sont également moins patients. Il reste cependant à conforter ces résultats sur la base de méthodes plus satisfaisantes telles que celles proposées par Andersen et al. (2008) ou Andreoni et Sprenger (2012). Ces travaux expérimentaux soulèvent aussi la question de la nature des relations entre préférences pour le risque et préférences temporelles. S’il est clair au plan méthodologique qu’en négligeant les préférences vis-à-vis du risque on est conduit à surestimer l’impatience, ceci ne signifie pas pour autant que les préférences vis-à-vis du risque déterminent les préférences temporelles.

4.3 Comment prendre en compte l’interdépendance des préférences pour le risque et des préférences temporelles ?

Le modèle d’espérance d’utilité actualisée constitue la référence théorique pour les problèmes de décision séquentiels, c’est-à-dire les problèmes de décision pour lesquels la date de résolution du risque nécessite d’être prise en considération. Ce modèle possède l’avantage de satisfaire la propriété de cohérence dynamique. Comme la résolution temporelle du risque n’affecte pas les préférences entre les loteries, il en découle la propriété de séparabilité intertemporelle (Machina, 1989), c’est-à-dire que le comportement de choix à l’instant t est indépendant des gains antérieurs. Une autre caractéristique importante est la séparabilité entre préférences pour le risque et préférences temporelles : l’aversion pour le risque d’un individu est ainsi captée par la courbure de sa fonction d’utilité, et l’impatience par le facteur d’actualisation. Cette séparabilité se retrouve aussi bien dans les modèles à impatience stationnaire (actualisation exponentielle) que dans les modèles à impatience décroissante avec le temps (actualisation hyperbolique).

Frederick et al. (2002) ont montré dans leur revue critique de la littérature, qu’en dépit de l’identification des insuffisances de ces modèles, aucun consensus n’est apparu pour développer un modèle alternatif. Un certain nombre de pistes ont cependant été explorées. Une première voie, choisie par Kreps et Porteus (1978) et Epstein et Zin (1989), consiste à atténuer la séparabilité intertemporelle en introduisant la possibilité pour les préférences de la date t de dépendre de la résolution du risque passé, une propriété qu’ils nomment temporal consistency, ou cohérence temporelle. Une seconde route a été ouverte par Ok et Masatlioglu (2007) et par Dubra (2009), en introduisant des propriétés de séparabilité qui garantissent que la désutilité liée au passage du temps est indépendante du niveau des conséquences. Bien que ce type de modèle abandonne la séparabilité intertemporelle, il permet néanmoins de séparer l’attitude face au risque de la substituabilité intertemporelle. Ce type de modèle ouvre ainsi une perspective intéressante pour rendre compte des relations entre préférences pour le risque et préférences temporelles observées dans les expériences. Une troisième voie a été proposée par Baucells et Heukamp (2012) sur la base d’un modèle original qui pourrait permettre de s’accommoder des observations expérimentales.

Conclusion

Pour les économistes, le comportement des agents, et notamment leur comportement face au risque, dépend à la fois de leurs préférences et des incitations auxquelles ils font face. En permettant conjointement l’observation précise des comportements et le contrôle des incitations, l’économie expérimentale constitue une méthode alternative et complémentaire à l’économétrie sur données naturelles dans l’élicitation des préférences. Ainsi, l’économie expérimentale a permis des avancées importantes dans la connaissance et la compréhension du comportement des agents face au risque.

Dans cet article, nous avons tenté de mettre en évidence les avancées de la connaissance sur la prise de risque individuelle permises grâce au développement des méthodes incitatives de l’économie expérimentale. Dans une première section, nous avons passé brièvement en revue les principales méthodes incitatives d’élicitation des préférences face au risque couramment utilisées dans la littérature économique. Dans une deuxième section, nous avons proposé une synthèse des apports de l’économie expérimentale pour trois des déterminants majeurs de la prise de risque individuelle : le genre, l’âge et la richesse. Dans les deux sections suivantes nous nous sommes concentrés sur les avancées les plus récentes sur deux aspects particulièrement prometteurs de la recherche théorique et empirique sur les préférences face au risque. La section 3 s’est intéressée à l’impact du BR sur la prise de risque en discutant notamment l’hypothèse comportementale de vulnérabilité. Enfin, dans la quatrième et dernière section, le lien entre préférences face au risque et préférences temporelles a été exploré.