(Attention, article très long et plutôt technique)
C’est une proposition que de nombreux économistes avancent et connue sous le nom de Néo-Fishérienne, du nom de l’économiste américain Irving Fisher, connu pour ses travaux sur les taux d’intérêt et qui a donné son nom à une équation fondamentale dans les modèles utilisés pour analyser la politique monétaire.
Ces modèles, dits d’équilibre général dynamique stochastique (DSGE en anglais), tiennent compte de l’ensemble des comportements des agents dans l’économie, et pas seulement de l’effet causal d’une variable sur une autre (équilibre général vs équilibre partiel), tiennent compte de la volonté des agents d’optimiser leur comportement sur plusieurs périodes (dynamique vs statique), et autorisent les variables exogènes (c’est-à-dire extérieures au modèle) à évoluer suivant des lois statistiques caractérisant la taille et la persistance des chocs subis par le système (stochastique).
Ces modèles avaient pour but de répondre à la critique de Lucas selon laquelle il n’est pas pertinent d’estimer l’effet d’un changement de politique économique sur la base de relations statistiques passées, dans la mesure où les agents réagiront à ce changement de politique économique en formant de nouvelles anticipations. Notamment, la fameuse courbe de Philips donnant une relation décroissante entre inflation et chômage ne pouvait plus être considérée comme stable dans le temps, les critiques les plus extrêmes allant jusqu’à affirmer que celle-ci était simplement verticale, que le chômage ne dépendait que de facteurs purement structurels et que toute politique inflationniste n’aurait aucun effet positif sur le chômage.
Les premiers modèles développés dans les années 80 (RBC ou Real Business Cycles) faisaient donc l’hypothèse d’anticipations parfaitement rationnelles (les agents connaissent le modèle de l’économie et utilisent toute l’information à disposition pour optimiser leur comportement), d’une concurrence parfaite et de prix parfaitement flexibles. Ces modèles aboutissaient ainsi à une neutralité complète de la monnaie, c’est-à-dire au fait que la politique monétaire, que ce soit via les taux d’intérêts nominaux ou via la masse monétaire en circulation, n’avait aucun effet sur les variables dites réelles, à savoir le chômage et la croissance en volume, une conclusion contraire à ce que la littérature empirique affirme.
Afin d’améliorer la pertinence empirique de ces modèles, une nouvelle classe de modèle a été développée à partir de ces premiers essais, grâce à l’introduction d’une concurrence monopolistique associée à une rigidité nominale des prix. Dans cette classe de modèles, les prix ne sont plus magiquement déterminés par le commissaire-priseur Walrasien et considérés comme donnés par les entreprises, mais sont le résultat du programme d’optimisation du profit dans un contexte où chaque entreprise est en situation de monopole sur la fourniture de son produit, et où les consommateurs retirent de l’utilité de la diversité de leur panier de consommation. Ainsi, une entreprise aura à choisir un prix assez élevé pour en profiter mais pas trop de manière à ne pas décourager la demande pour son bien. La marge des entreprises est ainsi directement reliée à la volonté des consommateurs à substituer un bien pour un autre lorsque son prix augmente. Enfin, la rigidité nominale peut être introduite de plusieurs manières, certaines étant formellement équivalentes, mais toutes conduisant à la constatation que les entreprises ne ré-optimisent pas leurs prix en continu, ce dont elles tiennent compte lorsqu’elles choisissent un nouveau prix : puisqu’elles seront coincées avec pendant un certain temps, ce prix dépend de leurs anticipations de la demande et des prix moyens futurs. Ces modèles ont été assez improprement appelés néo-keynésiens (NK), essentiellement parce que l’introduction d’une rigidité des prix permettait de retrouver la possibilité d’un chômage involontaire. En ce sens, ils sont plutôt néo-hicksiens.
La version la plus élémentaire de cette classe de modèle, décrite par Woodford (2003) et Gali (2008) permet de capter les intuitions les plus importantes. Ce modèle en économie fermée, avec anticipations rationnelles et sans accumulation de capital, aboutit à trois équations fondamentales, les deux premières étant communes aux modèles RBC et NK.
L’équation d’Euler décrit comme la demande évolue avec les taux d’intérêts et les anticipations de demande future, et provient de l’optimisation de programme de consommation-épargne des ménages. Dans cette équation, des taux d’intérêts réels élevés découragent la demande :
Euler : Y(t) = – a . ( R(t) – Rn(t)) + Et[Y(t+1)] :
où Y est l’excès de demande, R le taux d’intérêt réel, Rn le taux d’intérêt naturel (celui qui prévaudrait si les prix étaient flexibles), et Et est l’opérateur d’espérance, qui désigne les anticipations rationnelles en t d’une variable future.
L’équation de Fisher définit le taux d’intérêt réel comme la différence entre le taux d’intérêt nominal et l’anticipation d’inflation :
Fisher : R(t) = I(t) – Et[Pi(t+1)]
où I est le taux nominal de court terme et Pi est l’inflation.
La troisième et dernière équation, spécifique aux modèles NK, réintroduit une relation décroissante entre le chômage et l’inflation (ou croissante entre l’excès de demande et l’inflation), mais y ajoute un terme d’anticipation, d’où son nom de courbe de Phillips augmentée ou courbe de Phillips néo-keynésienne (NKPC).
NKPC : Pi(t) = b.Et[Pi(t+1)] + c.Y(t) avec b<1
Ces trois équations régissent le comportement de quatre variables endogènes : R, I, Pi et Y. Afin de pouvoir fermer le modèle, il faut donc une quatrième équation, ce qui montre que des variables réelles comme le taux d’intérêt réel et la croissance ne peuvent être déterminées indépendamment de la politique monétaire. Une autre conclusion de ces modèles, c’est que les effets de la politique monétaire sur les variables réelles ne peuvent qu’être de court terme, car il est facile de vérifier qu’à long-terme ces trois équations aboutissent au même résultat qu’un modèle RBC sans rigidité nominale.
C’est ici qu’intervient la proposition néo-Fishérienne. Supposez que la banque centrale fixe le taux nominal I(t) à chaque période, et considérez qu’à long-terme le taux d’intérêt réel R(t) est exogène et égal à Rn(t). Dans ce cas, l’équation de Fisher permet de déterminer les anticipations d’inflation et donc à long-terme, quand il ne serait pas rationnel d’anticiper un écart permanent avec l’inflation réalisée, de déterminer l’inflation. A long terme, Fisher devient :
Pi* = I* – Rn.
Ainsi, il apparaît évident que si la banque centrale choisit d’abaisser I* de manière permanente, l’inflation Pi* diminue. Une baisse du taux d’intérêt serait donc déflationniste. Pourquoi cette proposition est-elle contre-intuitive? Tout simplement parce qu’on s’attend à ce qu’une baisse des taux nominaux accompagnée d’une rigidité des prix débouche sur une baisse des taux réels, et que la demande dépend négativement des taux d’intérêts réels dans l’équation d’Euler. Enfin, la courbe de Phillips nous donne une relation positive entre la demande et l’inflation, donc il paraît étrange que le même modèle nous donne simultanément une relation négative entre inflation et taux nominal à court terme mais positive à long terme : comment passe-t-on d’une succession de courts termes au long terme ?
Il est donc essentiel de préciser ce qu’on entend par « baisse permanente du taux d’intérêt nominal ». Selon la règle de politique monétaire adoptée, les effets d’une telle baisse varieront.
Le premier cas simple, est celui d’une règle de politique monétaire dans lequel la banque centrale choisit une cible de taux d’intérêt nominal. C’est le cadre théorique qui vient immédiatement à l’esprit lorsqu’on cherche à imaginer ce que signifie une baisse permanente du taux d’intérêt. C’est aussi le cadre théorique adopté par Cochrane (2015). Le problème d’une telle règle monétaire, c’est que la résolution du modèle décrit par les trois équations et la contrainte I(t) = I* ne permet pas de déterminer l’inflation : seules les anticipations d’inflation admettent une unique solution, ce qui signifie qu’il existe une infinité de solutions stationnaires pour l’inflation. Si on s’abstrait toutefois de ce problème en introduisant une nouvelle équation permettant de faire disparaître l’indétermination des prix (par exemple la théorie budgétaire du niveau des prix), on aboutit nécessairement à la conclusion qu’une baisse permanente du taux d’intérêt diminue l’inflation. La politique des grandes banques centrales (Fed, BoE, BCE…) depuis 2008 serait donc contraire à leur objectif de stabiliser l’inflation à 2%. Le canal de transmission est le suivant : les agents anticipent des taux nominaux bas à long-terme, révisent donc leurs anticipations d’inflation de long-terme puisqu’ils savent que celles-ci sont contraintes par le taux d’intérêt naturel, et les entreprises qui réactualisent leur prix ont moins besoin d’anticiper les hausses futures de prix, ce qui diminue l’inflation dès aujourd’hui. En outre, l’inflation diminuant moins que le taux nominal à cause des rigidités, le taux réel diminue et la demande augmente. Jim Bullard, président de la Fed de Saint-Louis, a fourni une analyse similaire récemmentet assimile cette dynamique à ce qu’il s’est passé depuis 2008.
Le problème de cette règle monétaire est que ce n’est pas ainsi que les banques centrales fonctionnent, et que si c’était le cas elles ne seraient pas crédibles. En effet, une telle règle débouche soit sur l’indétermination du niveau des prix, qui peut avoir des conséquences négatives en terme de bien-être social puisque l’incertitude sur les prix est à la source d’inefficacités microéconomiques importantes (comment négocier un salaire, un emprunt, un prix de vente entre fournisseur et client ?), soit sur la disparition du rôle de la banque centrale, puisque le niveau des prix sera déterminé par un autre canal. Ainsi, si cette règle n’est pas crédible et que les agents anticipent que la banque centrale l’abandonnera, le canal de transmission décrit ci-dessus disparaît.
Un cadre théorique qui décrit mieux l’action des banques centrales est celui où le taux d’intérêt nominal suit une règle de Taylor qui fait évoluer le taux d’intérêt nominal autour d’une cible de long-terme I*, en réponse aux fluctuations de l’inflation et de l’excès de demande.
Taylor : I(t) = I*(t) + d.(Pi(t) – Pi*) + eY(t).
Où Pi* est la cible d’inflation de la banque centrale, qui peut être supposé nulle sans perte de généralité dans le modèle.
Taylor : I(t) = I*(t) + d.Pi(t) + eY(t).
Ainsi, quand l’inflation excède sa cible ou que l’excès de demande devient positif, la banque centrale augmente le taux nominal. Ce modèle peut être résolu et à la condition que d > 1 admet une unique solution stationnaire pour l’inflation (principe de Taylor). Cela traduit le fait que lorsque l’inflation augmente d’un point, il faut augmenter le taux nominal de plus qu’un point pour que le taux réel (=I-Pi) augmente, ce qui permet de réduire l’excès de demande et donc l’inflation.
Dans ce cadre, on peut décrit I* comme suivant un processus exogène :
I*(t) = Rn + V(t)
V(t) = rho.V(t-1) + epsilon(t)
Où V est un choc de politique monétaire caractérisé par sa persistance rho (plus rho est proche de 1, plus un changement epsilon de cible I* une année donnée dure). V peut être interprété comme un changement du taux d’intérêt nominal qui ne serait pas justifié par une fluctuation de l’inflation ou de la demande.
Ainsi, si la politique monétaire ne subit aucun choc, I* est constant et cohérent avec l’équilibre de long terme dans lequel l’inflation vaut Pi*. A court terme, et contrairement au cas précédent, I fluctue avec Y et Pi, qui peuvent eux subir des chocs d’autre nature (productivité…).
Dans ce cadre, une baisse de la cible de taux d’intérêt à cible d’inflation inchangée s’interprète comme une valeur négative de V(t), donc un choc négatif epsilon une année donnée t accompagné d’une persistance rho. Quelle est la réponse des variables endogènes du modèle?
Le résultat dans le cas où rho serait quelconque est le suivant :
Pi(t) = – c.alpha . V(t)
Y(t) = – (1 – b.rho).alpha.V(t)
R(t) = (1/c).(1 – rho).(1 – b.rho).alpha.V(t).
I(t) = [(1/c).(1 – rho).(1 – b.rho) – c.rho].alpha.V(t)
Où Pi, Y, R, et I désignent les écarts de ces variables à ce qu’il se serait passé si la banque centrale n’avait rien fait, et où alpha dépend des paramètres du modèle mais est positif. Ainsi, suite à une baisse de la cible de taux, l’inflation et la demande augmentent toutes les deux. En particulier, l’effet cet effet est positif quelle que soit la persistance rho. Lorsque rho tend vers 1, alpha reste positif. Le taux d’intérêt réel quant à lui diminue.
Qu’arrive-t-il au taux nominal ? Si la persistance du choc initial est très élevée, le taux d’intérêt nominal va augmenter. En d’autres termes, une baisse pendant très longtemps de la cible de taux d’intérêt nominal va se traduire par une hausse du taux d’intérêt nominal ! Cela paraît étrange, mais le canal de transmission est plutôt simple : en raison de la règle de Taylor, la banque centrale fait évoluer le taux d’intérêt nominal positivement avec l’inflation et la demande. La baisse de la cible est interprétée par les agents comme une baisse du taux nominal, à inflation et demande données, ce qui stimule la demande et l’inflation. Plus cette cible est abaissée pendant une période longue, plus les agents s’attendent à ce que les bénéfices de ces faibles taux durent, et plus l’effet sur l’inflation et la demande aujourd’hui sont importants, et donc plus la banque centrale augmente le taux effectif aujourd’hui.
Dans ce cadre, la proposition néo-Fishérienne paraît donc décalée, puisqu’une baisse de la cible de taux est sans aucun doute inflationniste. Comment réconcilier ces deux propositions ? Il suffit de constater que l’argument essentiel dans la proposition néo-Fishérienne est l’aspect persistant de la baisse des taux d’intérêt (rho = 1).
Si la baisse de la cible de taux d’intérêt est permanente, alors le système d’équations devient à long terme :
Taylor : I = Rn + V + d(Pi – Pi*) + e.Y
Euler : Y = – a . (R – Rn) + Y
NKPC : Pi = bPi + c.Y
Fisher : R = I – Pi
Ce qui donne
(c/(1-b) – e).Y = V + d.Pi.
Donc à long terme, V non nul implique Y et/ou Pi non nuls. Une baisse permanente de la cible de taux d’intérêt est donc soit incohérente avec la cible d’inflation, soit introduit un excès permanent de demande. Dès lors, les hypothèses initiales du modèle et notamment sa log-linéarisation autour de l’équilibre de long terme qui permet d’obtenir les équations d’Euler et NKPC ci-dessus ne sont plus valides, puisque l’équilibre de long terme a changé. Pour obtenir un effet néo-Fishérien, il faut donc que les agents interprètent la baisse permanente de la cible de taux d’intérêt nominal comme en réalité une baisse de la cible d’inflation implicite de la banque centrale.
Dans le modèle néo-keynésien, la proposition néo-Fishérienne est donc très sensible à l’hypothèse de rationalité parfaite des agents, notamment sur leur capacité à faire la différence entre un choc permanent (rho=1) et un choc quasi-permanent (rho -> 1). C’est ce qui a conduit Garcia-Schmidt et Woodford (2015) à montrer que si on laisse les agents former les anticipations dans un cadre de rationalité même seulement très légèrement limité, la proposition néo-Fishérienne disparaît du modèle NK.
Bibliographie :
Cochrane, John H. (2015) : “Do Higher Interest Rates Raise or Lower Inflation?”, Forthcoming.
Gali, Jordi (2008) : “Monetary Policy, Inflation and the Business Cycle, An Introduction to the New Keynesian Framework”, Princeton University Press
Garcia-Schmidt, Mariana & Woodford, Michael (2015) : “Are Low Interest Rates Deflationary? A Paradox of Perfect-Foresight Analysis”, NBER Working Paper
Woodford (2003) : “Interest and Prices, Foundations of a Theory of Monetary Policy”, Princeton University Press