La nouvelle modélisation macroéconomique appliquée à l’analyse de la conjoncture et à l’évaluation des politiques:
Les modèles dynamiques stochastiques d’équilibre général (DSGE)
Anne Epaulard (DGTPE, Université Dauphine et CEPREMAP),
Jean-Pierre Laffargue (Université de Paris 1, CES et CEPREMAP)
et Pierre Malgrange (PSE, DGTPE et CEPREMAP)
IntroductionLes débuts de la modélisation macroéconomique appliquée peuvent être associés aux travaux
de Tinbergen (1939), puis à la publication d’un livre célèbre de Klein (1950), qui inclut un
modèle de trois équations estimées économétriquement, complétées par quelques identités
comptables, de l’économie américaine. Durant plus de vingt ans cette nouvelle approche
donna lieu à la construction de modèles keynésiens de taille croissante, tâche qui fut facilitée
par les progrès de l’information statistique, de l’économétrie et de l’informatique. Les années
soixante-dix marquèrent la remise en cause fondamentale de ces modèles. A un niveau
intellectuel les critiques de Friedman, puis de Lucas, furent de plus en plus acceptées. Bien
que constitués d’un système d’équations simultanées, les modèles keynésiens ne pouvaient
pas être considérés comme des modèles d’équilibre général satisfaisants. Les catégories qu’ils
utilisaient : blocs de « comportements » (consommation, investissement, etc.), « agents » de la
comptabilité nationale (ménages, entreprises non financières, institutions financières, etc.), ne
laissaient pas une place suffisante aux rationalités des acteurs économiques, ni aux
interdépendances des marchés. La perception du futur par les agents de ces modèles était
incohérente et conduisait à surestimer l’efficacité des politiques actives de stabilisation. Les
effets d’offre ne jouaient qu’un rôle limité aux horizons pertinents, ce qui conduisait à
recommander des politiques de relance budgétaires et monétaires excessives. C’est cette
dernière caractéristique qui explique principalement l’échec pratique et politique des modèles
keynésiens.
A la suite du premier choc pétrolier, mais surtout d’un développement excessif de
l’émission monétaire dans les années qui le précédèrent, la plupart des économies
industrialisées se trouvèrent dans une situation d’inflation forte et persistante, alors même que
le chômage augmentait régulièrement et fortement. Les départements d’économie des
universités abandonnèrent la construction des grands modèles, et les institutions économiques leur accordèrent une confiance de plus en plus réduite pour l’évaluation de la conjoncture, la
prévision et l’élaboration des politiques économiques.
Le renouveau de la modélisation macroéconomique appliquée commença avec les modèles
des cycles réels, connus sous le nom de modèles « RBC » pour Real Business Cycles. Il
s’agissait de véritables modèles d’équilibre général, avec des comportements dynamiques
cohérents et des prévisions rationnelles des agents. Dans la tradition de Wicksell et de Frisch,
les cycles provenaient de chocs stochastiques indépendants qui se répercutaient dans les
agrégats économiques sous une forme transformée par les interdépendances des
comportements et des marchés que formalisait le modèle. Mais, en abandonnant totalement
les approches keynésiennes, les initiateurs de cette nouvelle approche avaient jeté le bébé
avec l’eau du bain : les politiques économiques, notamment de stabilisation conjoncturelle,
n’avaient plus lieu d’être. L’absence de frictions et d’imperfections a, en effet, pour corollaire
que les actions des agents parfaitement informés et rationnels suffisent pour que l’économie
se place en permanence sur la meilleure trajectoire possible compte tenu des chocs de
productivité qu’elle subit. Par la suite, les économistes enrichirent cette démarche
essentiellement juste, en ajoutant au cadre néo-classique initial seulement perturbé par des
chocs de productivité, les nombreuses imperfections des marchés, les rigidités économiques et
les perturbations variées que connaît toute économie et qui sont donc nécessaires pour une
analyse correcte du cycle des affaires, des politiques de stabilisation et des réformes. On peut
considérer que cette démarche avait à peu près abouti dans la moitié de l’actuelle décennie,
avec les modèles de Christiano, Eichenbaum et Evans (2005), et de Smets et Wouters
(2003)1
. Ces modèles, ainsi que leurs ancêtres de modélisation du cycle réel, sont aujourd’hui
connus sous le nom de modèles DSGE (Dynamic Stochastic General Equilibrium ou, en
français, modèles d’équilibre général dynamiques et stochastiques).
L’estimation, la simulation, l’évaluation, de ces nouveaux modèles fut un défi important. Il
fallut les progrès considérables de l’informatique, mais aussi de l’analyse numérique
appliquée à l’économie et de l’économétrie pour y faire face. Ces nouveaux modèles ont
connu alors un succès considérable, dans les universités bien sûr, mais aussi au Fonds
Monétaire International et dans les départements d’études de la plupart des banques centrales,
ainsi que, avec un certain retard, dans les services d’études des Ministères de l’économie ou des finances des pays industrialisés. Les institutions économiques ont sans doute vécu une
évolution moins discontinue que les universités dans leur conception de la modélisation, en
développant pendant la période durant laquelle les modèles macro-économétriques étaient
rejetés et les modèles DSGE pas encore opérationnels, des modèles « hybrides » qui ne
pouvaient plus être considérés comme étant keynésiens traditionnels, mais qui n’avaient pas
encore la rigueur des nouveaux modèles. Une raison de cette évolution prudente est que les
nouveaux modèles macroéconomiques sont encore d’une taille assez petite, et peuvent donc
sembler trop agrégés ou trop simplifiés pour permettre une analyse fine des conjonctures et
une évaluation précise des politiques. Un bon exemple de ces modèles hybrides est le modèle
Multimod du Fonds Monétaire International (Laxton, Isard, Faruqee, Prasad et Turtelboom
(1998)).
La première partie de ce numéro présente les spécifications retenues par les nouveaux
modèles macroéconomiques appliqués. La deuxième partie expose les techniques de
simulation, d’estimation et d’évaluation qui ont été développées pour ces nouveaux modèles.
La troisième partie examine des applications de ces modèles effectuées par des
administrations économiques : le Fonds Monétaire International, la DGTPE et la Banque de
France. Elle examine aussi comment ces modèles peuvent être utilisés pour améliorer notre
compréhension d’épisodes passés, particulièrement turbulents, de l’histoire de nos économies.
Spécification des modèles DSGE2
Les modèles du cycle réel adoptaient une formulation néo-classique très simple qui permettait
de rendre compte de la transmission de chocs aléatoires de productivité aux grands agrégats
économiques. En dépit de leur simplicité ces modèles permettaient de reproduire des
caractéristiques essentielles du cycle des affaires, comme par exemple l’amplitude des
fluctuations de la consommation relativement à celle de l’investissement au cours du cycle.
Cependant, ils échouaient dans la reproduction d’autres caractéristiques, comme par exemple
l’évolution de l’emploi ou des heures travaillées au cours du cycle. Cette insuffisance a
conduit progressivement les économistes concernés par la pratique à introduire dans les
modèles du cycle réel des imperfections de marché et des rigidités réelles et nominales, de
façon à obtenir un modèle reproduisant les caractéristiques observées les plus importantes du cycle des affaires. Les économistes ont également ajouté au choc de productivité de la théorie
des cycles réels, un grand nombre d’autres perturbations aléatoires, portant sur la demande,
les imperfections des marchés, les politiques, etc.
S. Moyen et J.-G. Sahuc évaluent et comparent les améliorations que permettent d’apporter
les imperfections des marchés et les rigidités des comportements que Christiano, Eichenbaum
et Evans, ainsi que Smets et Wouters avaient introduit dans leurs modèles. Les imperfections
des marchés sont modélisées par l’hypothèse que les travailleurs sont en concurrence
monopolistique sur le marché du travail, et que les entreprises le sont sur le marché des biens
qu’elles produisent. Les rigidités sont de deux types, réelles et nominales. Une première
rigidité réelle découle de ce que la satisfaction qu’un ménage retire de sa consommation
courante dépend de ses consommations passées, qui l’ont habitué à un certain standard de vie,
ce qui l’amène à ajuster lentement sa consommation à la hausse (ou à la baisse) lorsque son
revenu augmente (ou diminue) de façon permanente. Une seconde rigidité réelle découle de
ce qu’un changement du rythme de l’investissement relativement au capital installé est
coûteux, ce qui incite les entreprises à ajuster assez lentement leurs capacités de production à
un changement, même permanent, d’environnement économique. Les rigidités nominales sont
formalisées par l’hypothèse, dite de Calvo, que les salariés et les entreprises ne sont pas
certains de pouvoir ajuster à chaque période leurs salaires ou leurs prix de façon optimale.
Quand ils échouent dans leur ajustement, le salaire ou le prix qui les concerne évolue de façon
conforme à l’inflation passée ou tendancielle de l’économie.
Le modèle développé par Moyen et Sahuc est estimé par une méthode bayésienne pour la
zone euro. Des formes de ce modèle, dont ont été ôtées certaines rigidités ou imperfections,
sont aussi estimées. Ces différentes versions sont comparées du point de vue des valeurs de
leurs fonctions de vraisemblance sur la période d’estimation. De plus, les variances et les
autocorrélations qu’elles génèrent pour les principales variables sont comparées aux valeurs
que prennent ces moments pour les données utilisées pour l’estimation. Les rigidités
nominales, comme les rigidités réelles dans la consommation et dans l’investissement, se
révèlent essentielles pour la capacité du modèle de reproduire la réalité.
Tout n’est pas résolu pour autant. Les rigidités nominales dans les modèles DSGE sont
introduites via un paramètre qui retrace la durée moyenne entre deux ajustements optimaux de
prix pour les entreprises. Ce paramètre de rigidité est obtenu lors de l’estimation économétrique du modèle. Une des difficultés est que la durée moyenne entre deux
ajustements de prix ainsi estimée est beaucoup plus élevée que celle qu’obtiennent les études
microéconomiques qui examinent directement les fréquences avec laquelle les entreprises
ajustent effectivement leurs prix. Plusieurs solutions ont été proposées pour corriger cette
contradiction. Moyen et Sahuc explorent l’une d’entre elles, qui consiste à substituer à
l’hypothèse d’élasticité-prix constante de la fonction de demande à laquelle est confrontée une
entreprise, la condition que cette élasticité est plus élevée pour une entreprise dont le prix
augmente que pour une firme pour laquelle le prix baisse. Cette spécification a pour effet de
modérer l’ampleur des hausses de prix qu’effectuent les entreprises dans le modèle, ce qui
permet en contrepartie d’élever la fréquence des ajustements de prix. L’estimation d’un
modèle DSGE ainsi spécifié conduit à une période moyenne entre ajustements de prix, plus
basse et voisine de celle obtenue par les études microéconomiques.
Les imperfections de marché et les rigidités réelles et nominales que discutent Moyen et
Sahuc représentent l’amélioration de spécification qui est commune à tous les modèles DSGE
actuels, par rapport aux anciens modèles du cycle réel. Les trois articles qui suivent
approfondissent et améliorent ce cadre dans trois directions différentes.
K. E. Beaubrun-Diant et J. Matheron considèrent les aspects financiers du cycle des
affaires. Les macroéconomistes de la finance ont été confrontés au défi d’expliquer trois faits
stylisés importants. Le premier, l’énigme de la prime de risque, est que la rentabilité réelle
moyenne des actions est beaucoup plus élevée que le taux d’intérêt sans risque réel (l’écart est
de l’ordre de 6,5% par an sur données américaines) ce qui ne semble pas compatible avec ce
que l’on sait du degré d’aversion au risque (apparemment assez faible) des individus et
notamment de ceux d’entre eux qui détiennent des actions. Le second, l’énigme du taux sans
risque, est que la valeur moyenne de ce taux, corrigé de l’inflation, est très bas (de l’ordre de
1,5% par an sur données américaines) ce qui ne semble pas compatible avec ce que l’on sait
du degré de préférence pour le présent ou des arbitrages intertemporels des agents. Le
troisième fait stylisé, l’énigme de la volatilité de la rentabilité des actions, est que celle-ci est
très élevée, alors qu’elle est basse pour le taux d’intérêt réel sans risque (leurs écarts-types
respectifs sont de l’ordre de 15% et 1,4% par an sur données américaines). Les modèles
macroéconomiques standards sont incapables de reproduire ces trois faits pour des valeurs
raisonnables des paramètres qui retracent les préférences des agents.
Dans un modèle où l’offre de travail et le capital sont fixes, et où le revenu du capital suit un
processus stochastique exogène, un moyen de résoudre l’énigme de la prime de risque est de
rendre l’utilité des consommateurs dans une période sensible à leur consommation des
périodes antérieures, une des rigidités réelles que nous avons considérée ci-dessus. Cette
solution s’avère cependant insuffisante quand le capital et l’offre de travail deviennent des
variables endogènes pouvant être ajustées sans coût. Il convient alors d’introduire des rigidités
dans ces ajustements. On peut ainsi résoudre les deux premières énigmes, mais pas la
troisième : les volatilités du taux risqué et surtout du taux sans risque sont trop fortes. Une
solution alternative, aboutissant à sensiblement le même résultat, consiste à construire un
modèle à deux secteurs, avec une mobilité imparfaite des facteurs entre les secteurs.
J.-O. Hairault et T. Sopraseuth s’intéressent aux transmissions internationales des
fluctuations et à la dynamique des taux de change. Ils raisonnent pour cela dans un cadre à
deux pays. Le modélisateur est confronté au défi de reproduire les trois faits stylisés suivants :
1) Les fluctuations des PIB des différents pays sont positivement corrélées. 2) Celles des
consommations des ménages sont aussi positivement corrélées, mais leur interdépendance est
plus faible que celle des PIB, ce qui va à l’encontre de l’hypothèse habituellement faite d’un
marché complet des actifs contingents. 3) Les taux de change réels et nominaux sont
caractérisés par des fluctuations persistantes et très amples ; de plus ces deux taux sont
fortement corrélés entre eux. Le modèle DSGE de base, étendu à deux pays mais ne
comprenant pas de rigidités ni d’imperfections de marchés, échoue totalement dans la
reproduction de ces faits stylisés : il produit une corrélation des consommations entre pays
beaucoup plus élevée que celle des productions (quantity puzzle), et une volatilité des taux de
change réels beaucoup plus basse que celle observée (price puzzle).
Les économistes ont tenté de résoudre la première énigme (puzzle) en introduisant des
mécanismes nouveaux. La réduction de l’interdépendance internationale des consommations
peut être obtenue en limitant l’effet de la complétude des marchés sur la tendance des
consommations des ménages à s’égaliser entre pays, ou en considérant des marchés
incomplets. L’augmentation de l’interdépendance internationale des productions peut-être
obtenue en considérant que les entreprises d’un pays utilisent des biens intermédiaires
fabriqués dans un autre pays. La résolution de la seconde énigme repose sur l’intégration dans
le modèle des apports de la Nouvelle Macroéconomie Internationale développée par Obstfeld et Rogoff (1995). Les entreprises sont en concurrence monopolistique dans les deux pays et
n’ont pas toujours la possibilité d’ajuster optimalement leurs prix. Plus précisément, chaque
entreprise adopte un comportement de monopole discriminant sur les différents marchés où
elle vend son produit, et fixe sur chacun d’entre eux son prix dans la monnaie du pays
acheteur.
La théorie du commerce international s’est développée longtemps parallèlement à la
macroéconomie ouverte. Mais depuis peu, cette dernière a progressivement intégré des
apports nouveaux de la première, ce qui permet un enrichissement de l’analyse des
transmissions des fluctuations économiques et des volatilités des taux de change. Un
développement récent et fécond de l’économie du commerce international porte sur les
déterminants de la décision d’une entreprise d’exporter, ou d’étendre les marchés étrangers où
elle vend ses produits. Ces déterminants peuvent être le coût des transports, le coût fixe de
pénétration ou d’entrée sur un marché, etc. Cette approche rend donc la frontière entre biens
échangeables et non échangeables endogène, et susceptible d’évoluer au cours du cycle
économique, comme sous l’action de politiques de stabilisation. La variabilité au cours du
cycle du nombre de firmes présentes sur un marché et du degré de concurrence prévalant sur
celui-ci influence notablement les caractéristiques du cycle.
Dans les trois articles précédents, les ménages fixent leur offre notionnelle de travail. Quand
les salaires sont flexibles, leurs plans sont réalisés. Quand les salaires sont rigides, l’emploi
s’ajuste à la demande de travail par les entreprises, et certains ménages se retrouvent rationnés
sur le marché du travail, d’autres en suremploi. Cette formalisation du marché du travail est
assez frustre, mais elle suffit à rendre compte de beaucoup de caractéristiques du cycle
économique. A. Chéron et F. Langot examinent l’apport que constitue une formalisation du
marché du travail plus satisfaisante pour la compréhension du cycle et des effets des
politiques de stabilisation concernant l’emploi et les salaires. La modélisation qu’ils
retiennent est celle des modèles de recherche et d’appariement, qui avaient été introduits par
Pissarides (1990). Les entreprises proposent des postes de travail et les personnes sans emploi
tentent d’en obtenir un. La recherche d’un emploi, comme la vacance d’un poste, ont des
coûts, et il y a bien sûr un coût supplémentaire à être chômeur. Le nombre d’appariements
entre un travailleur et un poste est une fonction croissante du nombre de postes vacants et du nombre de chômeurs. Le salaire résulte d’une négociation à la Nash entre le travailleur et
l’entreprise ayant offert le poste. L’avantage de cette spécification est qu’elle donne une
explication des flux d’embauches et de licenciements, et non pas du simple taux de chômage.
Les faits stylisés importants du comportement cyclique du marché du travail, sont que la
volatilité de l’emploi est comparable à celle du PIB, alors que la volatilité du salaire réel est
plus faible et que celui-ci n’est guère corrélé au cycle économique. La spécification du
marché du travail qu’introduisent Chéron et Langot dans un modèle DSGE, leur permet de
reproduire ces faits et aussi d’obtenir la forte persistance que l’on observe dans les variations
conjoncturelles du PIB.
Le modèle de Chéron et Langot leur permet d’analyser les effets d’une politique active de
l’emploi (plus précisément des subventions à l’embauche) en fonction de leur mode de
financement. Ils observent que recourir pour celui-ci à une imposition du travail peut s’avérer
plus distorsif, c’est-à-dire réduire davantage le bien-être des agents, qu’une imposition du
capital. Ainsi, la spécification du marché du travail et de ses rigidités qu’utilisent les deux
auteurs, peut renverser un résultat classique de la macroéconomie, que l’on retrouve dans des
articles de la troisième partie de ce numéro. L’imposition du travail a en revanche l’avantage
d’atténuer l’amplitude des fluctuations de la production, alors que l’imposition du capital a
l’effet contraire.
Méthodes de simulation, estimation et tests des modèles DSGE
Les modèles DSGE n’auraient pas pu se développer sans des progrès méthodologiques
importants permettant de les simuler, de les estimer, de les évaluer et de les tester d’une façon
conviviale. Ils ont donc bénéficié de percées importantes de la computational economics et de
l’économétrie, mais ils ont aussi nourri et encouragé ces progrès. Le logiciel DYNARE, dont
la version la plus utilisée fonctionne sous MATLAB, a été développé au CEPREMAP dans le
cadre d’un programme de recherche dirigé par M. Juillard3
. Ce logiciel permet d’abord
d’effectuer des simulations déterministes de modèles dynamiques non linéaires à anticipations
parfaites. Cette fonction est extrêmement utilisée, par exemple pour évaluer des changements permanents de politique ou d’environnement. Cependant, comme cette fonction de DYNARE
est ancienne et bien connue, de même que l’algorithme utilisé, nous ne l’aborderons pas ici4
.
L’article de M. Juillard et T. Ocaktan est une revue de la littérature sur les méthodes de
simulation stochastique des modèles DSGE. Ces simulations sont effectuées quand on veut
évaluer les effets d’une modification d’une règle de politique économique, par exemple la
politique monétaire, sur les caractéristiques du cycle des affaires, notamment l’ampleur des
fluctuations de différents indicateurs économiques. Cette utilisation des modèles DSGE est
très fréquente de la part des Banques Centrales. Des simulations stochastiques sont aussi
effectuées pour évaluer les effets de coordinations des politiques monétaires entre pays sur la
volatilité de leurs économies.
Au prix de quelque approximation, on peut dire que le problème posé au modélisateur est de
calculer numériquement une fonction de décision, qui détermine l’état courant du système
économique une fois connu l’état hérité du passé et les chocs aléatoires heurtant l’économie
dans la période présente. Cette fonction est solution d’une équation fonctionnelle. Le
problème est donc de dimension infinie, et les différentes méthodes se distinguent dans leur
façon d’approximer ce problème par un autre de dimension finie.
La méthode d’itération sur la fonction de valeur, qui semble a priori la plus naturelle et qui a
été introduite la première en économie, est de discrétiser les variables d’état et les chocs,
c’est-à-dire de supposer que chacun d’entre eux ne peut prendre qu’un nombre fini de valeurs.
La méthode de projection, en revanche, essaie d’approximer la fonction de décision par une
combinaison linéaire d’un nombre fini de fonctions simples et parfaitement connues (en
général polynomiales). Cette approximation est globale, c’est-à-dire sa qualité est évaluée sur
l’ensemble des valeurs admissibles des variables endogènes et des chocs. Une variante de
cette méthode consiste à rechercher non pas une approximation de la fonction de décision,
mais de la fonction d’anticipation, qui relie les anticipations apparaissant dans le modèle à
l’état du système et aux chocs courants heurtant l’économie.
Toutes ces méthodes sont utilisées pour des modèles de petite taille, où le nombre de variables
endogènes et de chocs est de l’ordre de quelques unités. Pour les modèles de plus grande
taille, on utilise la méthode de perturbation, qui consiste à rechercher une approximation
locale, par exemple au voisinage de l’état stationnaire déterministe du modèle, de la fonction
de décision. L’usage dans les modèles du cycle réel était de se limiter à une approximation du
premier ordre (c’est-à-dire linéaire ou log-linéaire). La pratique actuelle est d’effectuer une
approximation au second ordre. Ce type de méthode de perturbation est implanté dans
DYNARE, alors que DYNARE++ effectue des approximations d’ordres choisis librement
sous la seule contrainte des capacités de calcul de l’ordinateur. Une approximation locale
peut donner des résultats peu satisfaisants en comparaison des autres méthodes
d’approximation qui sont globales. Cependant, comme les modèles usuels ont un nombre
réduit de non linéarités fortes, tant que les chocs restent modérés et que les conditions initiales
ne sont pas trop éloignées de l’état stationnaire déterministe, la méthode de perturbation avec
approximation du second ordre est largement suffisante.
S. Adjemian et F. Pelgrin examinent les méthodes d’estimation et de prévision bayésiennes
des modèles VAR et DSGE. Ces deux modèles sont ceux qui sont le plus fréquemment
utilisés pour la prévision économique ainsi que pour l’évaluation des politiques et des effets
des chocs environnementaux. Leurs performances respectives font fréquemment l’objet de
comparaisons, du type de celle qu’effectuent Collard et Fève dans l’article suivant. Il convient
donc que les estimations de ces deux modèles fassent l’objet de méthodes relativement
similaires et présentant le même degré de rigueur et de sophistication.
La méthode la plus usuelle pour estimer un système d’équations simultanées est le maximum
de vraisemblance. Cependant, cette méthode soulève deux difficultés pour les modèles
dynamiques. D’une part les modèles VAR ont un nombre de paramètres à estimer
considérable, alors que l’économètre ne dispose le plus souvent que de séries dont la longueur
ne dépasse pas cent trimestres. D’autre part, bien que les modèles DSGE aient peu de
paramètres, la fonction de vraisemblance est relativement plate dans certaines directions de
ces paramètres, ce qui implique qu’ils ne peuvent pas être estimés avec précision. Le principe
de l’estimation bayésienne est de compléter l’information que fournissent les données par des
informations préalables, dites a priori, dont disposait le modélisateur sur les valeurs de
paramètres. Pour les modèles DSGE, dont les paramètres sont structurels, ces informations sont en général d’ordre économique (provenant d’études micro-économétriques, effectuées
sur des pays étrangers, etc.). Pour les VAR, dont les paramètres n’ont le plus souvent pas de
sens économique clair, ces ‘informations’ se limitent à une façon sage et claire d’exprimer son
ignorance.
Plus précisément, l’estimation bayésienne part d’une probabilité a priori des valeurs que le
modélisateur attribue aux paramètres, et révise celle-ci, grâce à la fonction de vraisemblances,
pour obtenir une probabilité a posteriori sur l’espace des paramètres. Il est alors possible de
calculer le mode de cette dernière distribution, c’est-à-dire son maximum, ce qui donne une
extension de l’estimation du maximum de vraisemblance. Les économètres souhaitent
cependant calculer d’autres moments de la distribution a posteriori des paramètres, par
exemple l’espérance ou la variance de ceux-ci. Ces moments se calculent par une méthode de
Monte Carlo reposant sur des tirages aléatoires de valeurs des paramètres suivant leur loi de
distribution a posteriori. La difficulté d’application de cette méthode est que si la valeur de
cette distribution en chaque point peut être calculée numériquement, cela ne suffit pas pour
permettre d’effectuer des tirages aléatoires de façon simple. Plusieurs méthodes ont été
développées pour résoudre ce problème, la plus usitée en économie étant l’algorithme de
Métropolis-Hasting. DYNARE permet d’effectuer d’une façon particulièrement conviviale
l’estimation bayésienne d’un modèle DSGE.
L’évaluation des modèles DSGE que proposent F. Collard et P. Fève, consiste à comparer
leurs qualités prévisionnelles à celles d’un modèle VAR. Del Negro, Schorfheide, Smets et
Wouters (2005) avaient établi que des modèles DSGE de grandes tailles présentent des
qualités prédictives, hors période d’estimation, satisfaisantes, dominant celles des modèles
VAR. Collard et Fève montrent que cette supériorité peut rester valide pour des modèles
DSGE de petite taille, à condition qu’ils prennent en compte les rigidités les plus importantes
dans les comportements que ces modèles cherchent à modéliser. Ces auteurs construisent un
modèle DSGE très simple, qui ajoute au modèle du cycle réel de base deux rigidités réelles,
dans le comportement d’investissement des firmes d’abord et dans l’offre de travail des
ménages ensuite, ainsi qu’un choc de demande. Ce modèle comporte deux variables
endogènes observables qui sont la productivité horaire du travail et le nombre des heures
travaillées. Il est estimé par le maximum de vraisemblance sur données trimestrielles
américaines, aux côtés d’une représentation VAR de ces deux variables. L’estimation par le
maximum de vraisemblance au lieu du recours à une estimation bayésienne, permet de ne pas vicier la comparaison par la possibilité que les probabilités a priori qui auraient été alors
imposées sur les paramètres des deux modèles, soient d’une qualité différente.
Les log-vraisemblances des deux modèles, DSGE et VAR, s’avèrent très voisines, alors que le
modèle DSGE contient moins de paramètres. Mais le résultat le plus intéressant est que les
capacités prévisionnelles, hors échantillon, des deux modèles sont similaires. Comme les
modèles DSGE permettent une identification mieux justifiée des chocs structurels, et comme
ils sont des instruments beaucoup mieux fondés pour l’analyse économique et l’évaluation des
politiques, ils semblent à tous les égards devoir être préférés aux VAR.
Applications des modèles DSGE
Une utilisation importante des modèles DSGE est de permettre l’évaluation de politiques
économiques, monétaires, budgétaires ou structurelles Ces modèles permettent aussi une
interprétation riche et cohérente d’épisodes économiques passés, notamment si ceux-ci ont été
particulièrement dramatiques, comme une récession ample et d’une longue durée.
Nous avons vu que le caractère stochastique des modèles DSGE joue un rôle important pour
déterminer et évaluer les différents aspects de leur spécification. Celle-ci doit en effet
permettre de reproduire les caractéristiques habituellement observées du cycle des affaires.
C’est-à-dire une simulation stochastique du modèle doit générer des trajectoires de ses
variables dont les principaux moments sont proches de ceux que l’on observe dans la réalité.
Nous avons également constaté comment ce caractère stochastique était essentiel pour
l’estimation du modèle. Nous allons voir en revanche que dans leur application à l’évaluation
des politiques et des réformes économiques, les modèles DSGE sont souvent (mais pas
toujours) utilisés dans leur version déterministe, c’est-à-dire après en avoir éliminé la partie
aléatoire.
D. Botman, P. Karam et D. Laxton présentent deux modèles DSGE multinationaux du
Fonds Monétaire International, GEM et GFM. Ces deux modèles développés au FMI diffèrent
l’un de l’autre en ce que le premier a une riche dynamique de court terme, reposant sur des
rigidités nominales, alors que le second est construit pour étudier les effets de moyen et long
terme des politiques budgétaires et inclut des mécanismes permettant d’échapper à
l’équivalence ricardienne. Une qualité de ces modèles est leur caractéristique modulaire. Ils sont constitués d’un cœur, qui inclut les rigidités et imperfections de marché les plus
importantes des modèles DSGE et de la nouvelle macroéconomie ouverte. Il est ensuite facile
d’ajouter à ce cœur les ingrédients qui s’avèrent nécessaires pour étudier un problème
spécifique, par exemple des biens non échangeables, des biens intermédiaires échangeables,
des matières premières, etc. Il est tout aussi aisé de faire varier le nombre de pays ou de zones
modélisés, et de choisir ceux-ci. Ces modèles peuvent donc être utilisés pour analyser une
grande variété de problèmes. Parmi ceux-ci on peut citer : l’évaluation des règles de politique
monétaire (dans ce cas avec des simulations stochastiques de GEM), le calcul des effets de
réformes structurelles des marchés des biens et du travail, l’analyse du déséquilibre de la
balance des paiements des Etats-Unis, la mesure des effets de baisses d’impôts ou de réformes
fiscales, l’évaluation des effets d’une substitution partielle de plans d’épargne retraite au
système de retraites par répartition, etc.. La contrepartie de cette souplesse est que les
nombreuses versions qui ont été utilisées de GEM et GFM n’ont pas été estimées par des
méthodes économétriques rigoureuses, mais ont été le plus souvent étalonnées et ajustées sur
un compte central.
Une des forces des modèles DSGE est que le caractère rigoureux de leur spécification
économique permet de retirer des interprétations claires et précises de leurs résultats, qui
peuvent faire l’objet de larges discussions en termes non techniques. C’est ainsi, par exemple,
que dans leur édition de 2006, les Perspectives de l’Economie Mondiale que publie le FMI,
utilisent GEM pour analyser le déficit de la balance des paiements américaine et pour
construire des scénarios donnant les effets de son ajustement sur les principales économies.
L’édition de 2007 emploie encore GEM comme base de discussion des effets d’une hausse du
prix du pétrole, et d’une analyse des transmissions internationales des chocs conjoncturels.
Les évaluations des politiques en termes de variations du bien-être intertemporel des ménages,
que permettent de calculer les modèles DSGE, sont aussi particulièrement convaincantes.
M. Coupet et J.-P. Renne ont construit un modèle DSGE pour la France. L’estimation
économétrique en a été effectuée sur la période antérieure à l’instauration de l’euro comme
monnaie commune européenne. Il est utilisé sur la période actuelle après avoir ajusté au
nouveau cadre institutionnel sa spécification des politiques monétaires et de change. Ce
modèle a une structure similaire à celle de GEM, mais ne représente qu’un seul pays ouvert
sur le reste de la zone euro. Il fait l’objet d’une estimation économétrique bayésienne qui comporte un apport original. Habituellement, les variables économiques utilisées dans
l’estimation sont préalablement et indépendamment filtrées de leurs composantes à basses
fréquences. Coupet et Renne font le choix, plus satisfaisant, de supposer que ces variables
suivent des processus stochastiques stationnaires au voisinage de tendances stochastiques
exogènes, mais cohérentes entre elles et ayant des sens économiques clairs. En revanche, les
caractéristiques stochastiques du modèle ne sont plus prises en compte quand il est utilisé
pour évaluer des réformes.
Le modèle est utilisé pour examiner les effets de hausses de l’imposition des revenus du
travail et du capital, ainsi que d’une élévation du taux de TVA. On sait que les conséquences
effectives d’une taxe sont très différentes de son impact immédiat, et que l’identité des agents
qui en supportent finalement le coût peut fortement différer de ceux qui sont directement
frappés par cet impôt. Par exemple, les ménages déterminent leur comportement d’épargne en
comparant l’inconvénient qu’il y a à transférer à plus tard une consommation dont ils
pourraient bénéficier tout de suite, à l’avantage que procure la rémunération (après taxes) de
cette épargne. En conséquence, dans le long terme, le taux de rémunération (après taxes) du
capital est égal au taux d’escompte psychologique des ménages. Aussi, une élévation de
l’imposition du capital n’en altère pas le taux de rentabilité net d’impôt dans le long terme,
donc élève le taux de rendement avant impôt. Cela conduit à une réduction de l’intensité
capitalistique de l’économie et en conséquence à une baisse des salaires. Une augmentation de
l’imposition du travail pour sa part est in fine entièrement supportée par les salariés, même s’il
s’agit d’une augmentation des cotisations sociales payées par les employeurs. L’offre de
travail diminue en fonction de la sensibilité de l’offre de travail au salaire net, mais
probablement assez peu, l’intensité capitalistique ne bouge pas et l’économie s’appauvrit
moins que dans le scénario précédent.
Le modèle reproduit ces résultats de long terme. Une hausse de l’imposition du capital réduit
beaucoup plus le PIB qu’une élévation de l’imposition du travail, et cela parce qu’elle a un
effet négatif ample sur l’investissement. Une hausse de la TVA a des effets intermédiaires,
son caractère négatif résultant de ce que la TVA ne frappe pas que la consommation, mais
aussi, à un degré partiel, l’investissement et certaines consommations intermédiaires. L’apport
original du modèle se situe dans l’analyse qu’il permet de la dynamique des effets de ces trois
mesures fiscales. Cette dynamique est complexe et dépend de la structure des rigidités réelles
et nominales du modèle. Par exemple, dans le court terme le salaire nominal est rigide. En conséquence une hausse de l’imposition du travail élève le coût du travail pour l’entreprise ce
qui a un effet récessif notable. En fait, le travail est relativement mobile à court terme et inerte
à long terme. Le facteur capital a les caractéristiques opposées.
Le modèle de Coupet et Renne est enfin utilisé pour évaluer les effets de l’instauration d’une
TVA sociale, c’est-à-dire d’une réduction de l’imposition du travail compensée par une
augmentation du taux de TVA. Cette mesure sera fortement expansionniste dans le court
terme, mais légèrement récessive à long terme à cause de l’effet négatif d’une hausse de la
TVA sur l’investissement. Le modèle de la DGTPE est riche et flexible et, comme GEM, il
est susceptible de nombreuses autres applications5
.
S. Adjemian, C. Cahn, A. Devulder et N. Maggiar ont construit un modèle de la zone euro,
considérée comme une économie fermée, dont la spécification est très voisine de celle
introduite par Smets et Wouters (2003). Ils ont estimé leur modèle par une méthode
bayésienne sur la période antérieure à la constitution de la zone euro. Ils l’utilisent pour
évaluer les effets d’une hausse permanente de la TVA, annoncée deux ans avant d’être mise
en oeuvre. La simulation des effets de cette politique est là aussi purement déterministe, c’est-
à-dire effectuée après avoir annulé toutes les perturbations stochastiques. L’intérêt de
l’exercice est de fournir une mesure de l’incertitude de ces effets. En effet, l’estimation
bayésienne, contrairement à l’estimation classique, ne donne pas pour chaque paramètre une
valeur estimée, mais une distribution (a posteriori) de valeurs possibles. Le plus souvent, on
résume cette distribution par une valeur, par exemple son mode, et on simule le modèle en
ayant affecté à chaque paramètre sa valeur-résumé. Il est cependant plus satisfaisant
d’effectuer une succession de tirages aléatoires des valeurs de l’ensemble des paramètres,
2000 chez les auteurs, de simuler le modèle pour le résultat de chacun de ces tirages, et de
déduire la distribution de probabilité des effets de la hausse de la TVA sur chaque grandeur
économique. Un résultat remarquable est que les trajectoires des variables endogènes
obtenues par ces simulations, sont assez voisines les unes des autres, et donc que l’incertitude
sur les résultats économiques d’une hausse de la TVA est modérée.
Bibliographie
Christiano, L., Eichenbaum, M. et Evans, C. (2005). Nominal Rigidities and the Dynamic
Effect of a Shock to Monetary Policy. Journal of Political Economy, 113, 1-45.
De Vroey, M. et Malgrange, P. (2007). La théorie et la modélisation macroéconomiques,
d’hier à aujourd’hui. Revue Française d’Economie, à paraître.
Del Negro M., F. Schorfheide, F. Smets et R. Wouters (2005). On the Fit and Forecasting
Performance of New-Keynesian Models. Working Paper Series 491. Banque Centrale
Européenne.
Klein, L. (1950). Economic Fluctuations in the United States. 1921-1941. New York, Wiley.
Laxton D, P. Isard, H. Faruqee, E. Prasad et B. Turtelboom (1998). Multimod Mark III. The
Core Dynamic and Steady-State Models. Occasional Paper 164. Fonds Monétaire
International. Washington D. C
Obstfel, M. et Rogoff, K (1995). Exchange Rate Dynamics Redux. Journal of Political
Economy, 103(3), 624-660.
Pissarides C. A. (1990). Equilibrium Unemployment Theory. Oxford, Basil Blackwell.
Smets, F. et Wouters, R. (2003). An Estimated Stochastic Dynamic General Equilibrium
Model of the Euro Area. Journal of European Economic Association, 1, 1123-1175.
Tinbergen J. (1939) . Statistical Testing of Business Cycles Theories. Vol. 2 : Business Cycles
in the United States of America, 1919-1932, Genève, Ligue des Nations.
Nguồn bài này: http://halshs.archives-ouvertes.fr/docs/00/27/09/00/PDF/Introduction_DSGE.pdf
Không có nhận xét nào:
Đăng nhận xét