Thứ Bảy, 30 tháng 3, 2013

Les modèles dynamiques stochastiques d’équilibre général (DSGE)

La nouvelle modélisation macroéconomique appliquée à l’analyse de la conjoncture et à l’évaluation des politiques: 
Les modèles dynamiques stochastiques d’équilibre général (DSGE)
Anne Epaulard (DGTPE, Université Dauphine et CEPREMAP), 
Jean-Pierre Laffargue (Université de Paris 1, CES et CEPREMAP) 
et Pierre Malgrange (PSE, DGTPE et CEPREMAP)
Introduction
Les débuts de la modélisation macroéconomique appliquée peuvent être associés aux travaux 
de Tinbergen (1939), puis à la publication d’un livre célèbre de Klein (1950), qui inclut un 
modèle de trois équations estimées économétriquement, complétées par quelques identités 
comptables, de l’économie américaine. Durant plus de vingt ans cette nouvelle approche 
donna lieu à la construction de modèles keynésiens de taille croissante, tâche qui fut facilitée 
par les progrès de l’information statistique, de l’économétrie et de l’informatique. Les années 
soixante-dix marquèrent la remise en cause fondamentale de ces modèles. A un niveau 
intellectuel les critiques de Friedman, puis de Lucas, furent de plus en plus acceptées. Bien 
que constitués d’un système d’équations simultanées, les modèles keynésiens ne pouvaient 
pas être considérés comme des modèles d’équilibre général satisfaisants. Les catégories qu’ils 
utilisaient : blocs de « comportements » (consommation, investissement, etc.), « agents » de la 
comptabilité nationale (ménages, entreprises non financières, institutions financières, etc.), ne 
laissaient pas une place suffisante aux rationalités des acteurs économiques, ni aux 
interdépendances des marchés. La perception du futur par les agents de ces modèles était 
incohérente et conduisait à surestimer l’efficacité des politiques actives de stabilisation. Les 
effets d’offre ne jouaient qu’un rôle limité aux horizons pertinents, ce qui conduisait à 
recommander des politiques de relance budgétaires et monétaires excessives. C’est cette 
dernière caractéristique qui explique principalement l’échec pratique et politique des modèles 
keynésiens.
A la suite du premier choc pétrolier, mais surtout d’un développement excessif de 
l’émission monétaire dans les années qui le précédèrent, la plupart des économies 
industrialisées se trouvèrent dans une situation d’inflation forte et persistante, alors même que 
le chômage augmentait régulièrement et fortement. Les départements d’économie des 
universités abandonnèrent la construction des grands modèles, et les institutions économiques leur accordèrent une confiance de plus en plus réduite pour l’évaluation de la conjoncture, la 
prévision et l’élaboration des politiques économiques. 
Le renouveau de la modélisation macroéconomique appliquée commença avec les modèles 
des cycles réels, connus sous le nom de modèles « RBC » pour Real Business Cycles. Il 
s’agissait de véritables modèles d’équilibre général, avec des comportements dynamiques 
cohérents et des prévisions rationnelles des agents. Dans la tradition de Wicksell et de Frisch, 
les cycles provenaient de chocs stochastiques indépendants qui se répercutaient dans les 
agrégats économiques sous une forme transformée par les interdépendances des 
comportements et des marchés que formalisait le modèle. Mais, en abandonnant totalement 
les approches keynésiennes, les initiateurs de cette nouvelle approche avaient jeté le bébé 
avec l’eau du bain : les politiques économiques, notamment de stabilisation conjoncturelle, 
n’avaient plus lieu d’être. L’absence de frictions et d’imperfections a, en effet, pour corollaire 
que les actions des agents parfaitement informés et rationnels suffisent pour que l’économie 
se place en permanence sur la meilleure trajectoire possible compte tenu des chocs de 
productivité qu’elle subit. Par la suite, les économistes enrichirent cette démarche 
essentiellement juste, en ajoutant au cadre néo-classique initial seulement perturbé par des 
chocs de productivité, les nombreuses imperfections des marchés, les rigidités économiques et 
les perturbations variées que connaît toute économie et qui sont donc nécessaires pour une 
analyse correcte du cycle des affaires, des politiques de stabilisation et des réformes. On peut 
considérer que cette démarche avait à peu près abouti dans la moitié de l’actuelle décennie, 
avec les modèles de Christiano, Eichenbaum et Evans (2005), et de Smets et Wouters 
(2003)1
. Ces modèles, ainsi que leurs ancêtres de modélisation du cycle réel, sont aujourd’hui 
connus sous le nom de modèles DSGE (Dynamic Stochastic General Equilibrium ou, en 
français, modèles d’équilibre général dynamiques et stochastiques). 
L’estimation, la simulation, l’évaluation, de ces nouveaux modèles fut un défi important. Il 
fallut les progrès considérables de l’informatique, mais aussi de l’analyse numérique 
appliquée à l’économie et de l’économétrie pour y faire face. Ces nouveaux modèles ont 
connu alors un succès considérable, dans les universités bien sûr, mais aussi au Fonds 
Monétaire International et dans les départements d’études de la plupart des banques centrales, 
ainsi que, avec un certain retard, dans les services d’études des Ministères de l’économie ou des finances des pays industrialisés. Les institutions économiques ont sans doute vécu une 
évolution moins discontinue que les universités dans leur conception de la modélisation, en 
développant pendant la période durant laquelle les modèles macro-économétriques étaient 
rejetés et les modèles DSGE pas encore opérationnels, des modèles « hybrides » qui ne 
pouvaient plus être considérés comme étant keynésiens traditionnels, mais qui n’avaient pas 
encore la rigueur des nouveaux modèles. Une raison de cette évolution prudente est que les 
nouveaux modèles macroéconomiques sont encore d’une taille assez petite, et peuvent donc 
sembler trop agrégés ou trop simplifiés pour permettre une analyse fine des conjonctures et 
une évaluation précise des politiques. Un bon exemple de ces modèles hybrides est le modèle 
Multimod du Fonds Monétaire International (Laxton, Isard, Faruqee, Prasad et Turtelboom 
(1998)). 
La première partie de ce numéro présente les spécifications retenues par les nouveaux 
modèles macroéconomiques appliqués. La deuxième partie expose les techniques de 
simulation, d’estimation et d’évaluation qui ont été développées pour ces nouveaux modèles. 
La troisième partie examine des applications de ces modèles effectuées par des 
administrations économiques : le Fonds Monétaire International, la DGTPE et la Banque de 
France. Elle examine aussi comment ces modèles peuvent être utilisés pour améliorer notre 
compréhension d’épisodes passés, particulièrement turbulents, de l’histoire de nos économies. 
Spécification des modèles DSGE2
Les modèles du cycle réel adoptaient une formulation néo-classique très simple qui permettait 
de rendre compte de la transmission de chocs aléatoires de productivité aux grands agrégats 
économiques. En dépit de leur simplicité ces modèles permettaient de reproduire des 
caractéristiques essentielles du cycle des affaires, comme par exemple l’amplitude des 
fluctuations de la consommation relativement à celle de l’investissement au cours du cycle. 
Cependant, ils échouaient dans la reproduction d’autres caractéristiques, comme par exemple 
l’évolution de l’emploi ou des heures travaillées au cours du cycle. Cette insuffisance a 
conduit progressivement les économistes concernés par la pratique à introduire dans les 
modèles du cycle réel des imperfections de marché et des rigidités réelles et nominales, de 
façon à obtenir un modèle reproduisant les caractéristiques observées les plus importantes du cycle des affaires. Les économistes ont également ajouté au choc de productivité de la théorie 
des cycles réels, un grand nombre d’autres perturbations aléatoires, portant sur la demande, 
les imperfections des marchés, les politiques, etc. 
S. Moyen et J.-G. Sahuc évaluent et comparent les améliorations que permettent d’apporter 
les imperfections des marchés et les rigidités des comportements que Christiano, Eichenbaum 
et Evans, ainsi que Smets et Wouters avaient introduit dans leurs modèles. Les imperfections 
des marchés sont modélisées par l’hypothèse que les travailleurs sont en concurrence 
monopolistique sur le marché du travail, et que les entreprises le sont sur le marché des biens 
qu’elles produisent. Les rigidités sont de deux types, réelles et nominales. Une première 
rigidité réelle découle de ce que la satisfaction qu’un ménage retire de sa consommation 
courante dépend de ses consommations passées, qui l’ont habitué à un certain standard de vie, 
ce qui l’amène à ajuster lentement sa consommation à la hausse (ou à la baisse) lorsque son 
revenu augmente (ou diminue) de façon permanente. Une seconde rigidité réelle découle de 
ce qu’un changement du rythme de l’investissement relativement au capital installé est 
coûteux, ce qui incite les entreprises à ajuster assez lentement leurs capacités de production à 
un changement, même permanent, d’environnement économique. Les rigidités nominales sont 
formalisées par l’hypothèse, dite de Calvo, que les salariés et les entreprises ne sont pas 
certains de pouvoir ajuster à chaque période leurs salaires ou leurs prix de façon optimale. 
Quand ils échouent dans leur ajustement, le salaire ou le prix qui les concerne évolue de façon 
conforme à l’inflation passée ou tendancielle de l’économie. 
Le modèle développé par Moyen et Sahuc est estimé par une méthode bayésienne pour la 
zone euro. Des formes de ce modèle, dont ont été ôtées certaines rigidités ou imperfections, 
sont aussi estimées. Ces différentes versions sont comparées du point de vue des valeurs de 
leurs fonctions de vraisemblance sur la période d’estimation. De plus, les variances et les 
autocorrélations qu’elles génèrent pour les principales variables sont comparées aux valeurs 
que prennent ces moments pour les données utilisées pour l’estimation. Les rigidités 
nominales, comme les rigidités réelles dans la consommation et dans l’investissement, se 
révèlent essentielles pour la capacité du modèle de reproduire la réalité. 
Tout n’est pas résolu pour autant. Les rigidités nominales dans les modèles DSGE sont 
introduites via un paramètre qui retrace la durée moyenne entre deux ajustements optimaux de 
prix pour les entreprises. Ce paramètre de rigidité est obtenu lors de l’estimation économétrique du modèle. Une des difficultés est que la durée moyenne entre deux 
ajustements de prix ainsi estimée est beaucoup plus élevée que celle qu’obtiennent les études 
microéconomiques qui examinent directement les fréquences avec laquelle les entreprises 
ajustent effectivement leurs prix. Plusieurs solutions ont été proposées pour corriger cette 
contradiction. Moyen et Sahuc explorent l’une d’entre elles, qui consiste à substituer à 
l’hypothèse d’élasticité-prix constante de la fonction de demande à laquelle est confrontée une 
entreprise, la condition que cette élasticité est plus élevée pour une entreprise dont le prix 
augmente que pour une firme pour laquelle le prix baisse. Cette spécification a pour effet de 
modérer l’ampleur des hausses de prix qu’effectuent les entreprises dans le modèle, ce qui 
permet en contrepartie d’élever la fréquence des ajustements de prix. L’estimation d’un 
modèle DSGE ainsi spécifié conduit à une période moyenne entre ajustements de prix, plus 
basse et voisine de celle obtenue par les études microéconomiques. 
Les imperfections de marché et les rigidités réelles et nominales que discutent Moyen et 
Sahuc représentent l’amélioration de spécification qui est commune à tous les modèles DSGE 
actuels, par rapport aux anciens modèles du cycle réel. Les trois articles qui suivent 
approfondissent et améliorent ce cadre dans trois directions différentes. 
K. E. Beaubrun-Diant et J. Matheron considèrent les aspects financiers du cycle des 
affaires. Les macroéconomistes de la finance ont été confrontés au défi d’expliquer trois faits 
stylisés importants. Le premier, l’énigme de la prime de risque, est que la rentabilité réelle 
moyenne des actions est beaucoup plus élevée que le taux d’intérêt sans risque réel (l’écart est 
de l’ordre de 6,5% par an sur données américaines) ce qui ne semble pas compatible avec ce 
que l’on sait du degré d’aversion au risque (apparemment assez faible) des individus et 
notamment de ceux d’entre eux qui détiennent des actions. Le second, l’énigme du taux sans 
risque, est que la valeur moyenne de ce taux, corrigé de l’inflation, est très bas (de l’ordre de 
1,5% par an sur données américaines) ce qui ne semble pas compatible avec ce que l’on sait 
du degré de préférence pour le présent ou des arbitrages intertemporels des agents. Le 
troisième fait stylisé, l’énigme de la volatilité de la rentabilité des actions, est que celle-ci est 
très élevée, alors qu’elle est basse pour le taux d’intérêt réel sans risque (leurs écarts-types 
respectifs sont de l’ordre de 15% et 1,4% par an sur données américaines). Les modèles 
macroéconomiques standards sont incapables de reproduire ces trois faits pour des valeurs 
raisonnables des paramètres qui retracent les préférences des agents.

Dans un modèle où l’offre de travail et le capital sont fixes, et où le revenu du capital suit un 
processus stochastique exogène, un moyen de résoudre l’énigme de la prime de risque est de 
rendre l’utilité des consommateurs dans une période sensible à leur consommation des 
périodes antérieures, une des rigidités réelles que nous avons considérée ci-dessus. Cette 
solution s’avère cependant insuffisante quand le capital et l’offre de travail deviennent des 
variables endogènes pouvant être ajustées sans coût. Il convient alors d’introduire des rigidités 
dans ces ajustements. On peut ainsi résoudre les deux premières énigmes, mais pas la 
troisième : les volatilités du taux risqué et surtout du taux sans risque sont trop fortes. Une 
solution alternative, aboutissant à sensiblement le même résultat, consiste à construire un 
modèle à deux secteurs, avec une mobilité imparfaite des facteurs entre les secteurs. 
J.-O. Hairault et T. Sopraseuth s’intéressent aux transmissions internationales des 
fluctuations et à la dynamique des taux de change. Ils raisonnent pour cela dans un cadre à 
deux pays. Le modélisateur est confronté au défi de reproduire les trois faits stylisés suivants : 
1) Les fluctuations des PIB des différents pays sont positivement corrélées. 2) Celles des 
consommations des ménages sont aussi positivement corrélées, mais leur interdépendance est 
plus faible que celle des PIB, ce qui va à l’encontre de l’hypothèse habituellement faite d’un 
marché complet des actifs contingents. 3) Les taux de change réels et nominaux sont 
caractérisés par des fluctuations persistantes et très amples ; de plus ces deux taux sont 
fortement corrélés entre eux. Le modèle DSGE de base, étendu à deux pays mais ne 
comprenant pas de rigidités ni d’imperfections de marchés, échoue totalement dans la 
reproduction de ces faits stylisés : il produit une corrélation des consommations entre pays 
beaucoup plus élevée que celle des productions (quantity puzzle), et une volatilité des taux de 
change réels beaucoup plus basse que celle observée (price puzzle). 
Les économistes ont tenté de résoudre la première énigme (puzzle) en introduisant des 
mécanismes nouveaux. La réduction de l’interdépendance internationale des consommations 
peut être obtenue en limitant l’effet de la complétude des marchés sur la tendance des 
consommations des ménages à s’égaliser entre pays, ou en considérant des marchés 
incomplets. L’augmentation de l’interdépendance internationale des productions peut-être 
obtenue en considérant que les entreprises d’un pays utilisent des biens intermédiaires 
fabriqués dans un autre pays. La résolution de la seconde énigme repose sur l’intégration dans 
le modèle des apports de la Nouvelle Macroéconomie Internationale développée par Obstfeld et Rogoff (1995). Les entreprises sont en concurrence monopolistique dans les deux pays et 
n’ont pas toujours la possibilité d’ajuster optimalement leurs prix. Plus précisément, chaque 
entreprise adopte un comportement de monopole discriminant sur les différents marchés où 
elle vend son produit, et fixe sur chacun d’entre eux son prix dans la monnaie du pays 
acheteur. 
La théorie du commerce international s’est développée longtemps parallèlement à la 
macroéconomie ouverte. Mais depuis peu, cette dernière a progressivement intégré des 
apports nouveaux de la première, ce qui permet un enrichissement de l’analyse des 
transmissions des fluctuations économiques et des volatilités des taux de change. Un 
développement récent et fécond de l’économie du commerce international porte sur les 
déterminants de la décision d’une entreprise d’exporter, ou d’étendre les marchés étrangers où 
elle vend ses produits. Ces déterminants peuvent être le coût des transports, le coût fixe de 
pénétration ou d’entrée sur un marché, etc. Cette approche rend donc la frontière entre biens 
échangeables et non échangeables endogène, et susceptible d’évoluer au cours du cycle 
économique, comme sous l’action de politiques de stabilisation. La variabilité au cours du 
cycle du nombre de firmes présentes sur un marché et du degré de concurrence prévalant sur 
celui-ci influence notablement les caractéristiques du cycle. 
Dans les trois articles précédents, les ménages fixent leur offre notionnelle de travail. Quand 
les salaires sont flexibles, leurs plans sont réalisés. Quand les salaires sont rigides, l’emploi 
s’ajuste à la demande de travail par les entreprises, et certains ménages se retrouvent rationnés 
sur le marché du travail, d’autres en suremploi. Cette formalisation du marché du travail est 
assez frustre, mais elle suffit à rendre compte de beaucoup de caractéristiques du cycle 
économique. A. Chéron et F. Langot examinent l’apport que constitue une formalisation du 
marché du travail plus satisfaisante pour la compréhension du cycle et des effets des 
politiques de stabilisation concernant l’emploi et les salaires. La modélisation qu’ils 
retiennent est celle des modèles de recherche et d’appariement, qui avaient été introduits par 
Pissarides (1990). Les entreprises proposent des postes de travail et les personnes sans emploi 
tentent d’en obtenir un. La recherche d’un emploi, comme la vacance d’un poste, ont des 
coûts, et il y a bien sûr un coût supplémentaire à être chômeur. Le nombre d’appariements 
entre un travailleur et un poste est une fonction croissante du nombre de postes vacants et du nombre de chômeurs. Le salaire résulte d’une négociation à la Nash entre le travailleur et 
l’entreprise ayant offert le poste. L’avantage de cette spécification est qu’elle donne une 
explication des flux d’embauches et de licenciements, et non pas du simple taux de chômage. 
Les faits stylisés importants du comportement cyclique du marché du travail, sont que la 
volatilité de l’emploi est comparable à celle du PIB, alors que la volatilité du salaire réel est 
plus faible et que celui-ci n’est guère corrélé au cycle économique. La spécification du 
marché du travail qu’introduisent Chéron et Langot dans un modèle DSGE, leur permet de 
reproduire ces faits et aussi d’obtenir la forte persistance que l’on observe dans les variations 
conjoncturelles du PIB. 
Le modèle de Chéron et Langot leur permet d’analyser les effets d’une politique active de 
l’emploi (plus précisément des subventions à l’embauche) en fonction de leur mode de 
financement. Ils observent que recourir pour celui-ci à une imposition du travail peut s’avérer 
plus distorsif, c’est-à-dire réduire davantage le bien-être des agents, qu’une imposition du 
capital. Ainsi, la spécification du marché du travail et de ses rigidités qu’utilisent les deux 
auteurs, peut renverser un résultat classique de la macroéconomie, que l’on retrouve dans des 
articles de la troisième partie de ce numéro. L’imposition du travail a en revanche l’avantage 
d’atténuer l’amplitude des fluctuations de la production, alors que l’imposition du capital a 
l’effet contraire. 
Méthodes de simulation, estimation et tests des modèles DSGE
Les modèles DSGE n’auraient pas pu se développer sans des progrès méthodologiques 
importants permettant de les simuler, de les estimer, de les évaluer et de les tester d’une façon 
conviviale. Ils ont donc bénéficié de percées importantes de la computational economics et de 
l’économétrie, mais ils ont aussi nourri et encouragé ces progrès. Le logiciel DYNARE, dont 
la version la plus utilisée fonctionne sous MATLAB, a été développé au CEPREMAP dans le 
cadre d’un programme de recherche dirigé par M. Juillard3
. Ce logiciel permet d’abord 
d’effectuer des simulations déterministes de modèles dynamiques non linéaires à anticipations 
parfaites. Cette fonction est extrêmement utilisée, par exemple pour évaluer des changements permanents de politique ou d’environnement. Cependant, comme cette fonction de DYNARE 
est ancienne et bien connue, de même que l’algorithme utilisé, nous ne l’aborderons pas ici4

L’article de M. Juillard et T. Ocaktan est une revue de la littérature sur les méthodes de 
simulation stochastique des modèles DSGE. Ces simulations sont effectuées quand on veut 
évaluer les effets d’une modification d’une règle de politique économique, par exemple la 
politique monétaire, sur les caractéristiques du cycle des affaires, notamment l’ampleur des 
fluctuations de différents indicateurs économiques. Cette utilisation des modèles DSGE est 
très fréquente de la part des Banques Centrales. Des simulations stochastiques sont aussi 
effectuées pour évaluer les effets de coordinations des politiques monétaires entre pays sur la 
volatilité de leurs économies. 
Au prix de quelque approximation, on peut dire que le problème posé au modélisateur est de 
calculer numériquement une fonction de décision, qui détermine l’état courant du système 
économique une fois connu l’état hérité du passé et les chocs aléatoires heurtant l’économie 
dans la période présente. Cette fonction est solution d’une équation fonctionnelle. Le 
problème est donc de dimension infinie, et les différentes méthodes se distinguent dans leur 
façon d’approximer ce problème par un autre de dimension finie. 
La méthode d’itération sur la fonction de valeur, qui semble a priori la plus naturelle et qui a 
été introduite la première en économie, est de discrétiser les variables d’état et les chocs, 
c’est-à-dire de supposer que chacun d’entre eux ne peut prendre qu’un nombre fini de valeurs. 
La méthode de projection, en revanche, essaie d’approximer la fonction de décision par une 
combinaison linéaire d’un nombre fini de fonctions simples et parfaitement connues (en 
général polynomiales). Cette approximation est globale, c’est-à-dire sa qualité est évaluée sur 
l’ensemble des valeurs admissibles des variables endogènes et des chocs. Une variante de 
cette méthode consiste à rechercher non pas une approximation de la fonction de décision, 
mais de la fonction d’anticipation, qui relie les anticipations apparaissant dans le modèle à 
l’état du système et aux chocs courants heurtant l’économie. 

Toutes ces méthodes sont utilisées pour des modèles de petite taille, où le nombre de variables 
endogènes et de chocs est de l’ordre de quelques unités. Pour les modèles de plus grande 
taille, on utilise la méthode de perturbation, qui consiste à rechercher une approximation 
locale, par exemple au voisinage de l’état stationnaire déterministe du modèle, de la fonction 
de décision. L’usage dans les modèles du cycle réel était de se limiter à une approximation du 
premier ordre (c’est-à-dire linéaire ou log-linéaire). La pratique actuelle est d’effectuer une 
approximation au second ordre. Ce type de méthode de perturbation est implanté dans 
DYNARE, alors que DYNARE++ effectue des approximations d’ordres choisis librement 
sous la seule contrainte des capacités de calcul de l’ordinateur. Une approximation locale 
peut donner des résultats peu satisfaisants en comparaison des autres méthodes 
d’approximation qui sont globales. Cependant, comme les modèles usuels ont un nombre 
réduit de non linéarités fortes, tant que les chocs restent modérés et que les conditions initiales 
ne sont pas trop éloignées de l’état stationnaire déterministe, la méthode de perturbation avec 
approximation du second ordre est largement suffisante.
S. Adjemian et F. Pelgrin examinent les méthodes d’estimation et de prévision bayésiennes 
des modèles VAR et DSGE. Ces deux modèles sont ceux qui sont le plus fréquemment 
utilisés pour la prévision économique ainsi que pour l’évaluation des politiques et des effets 
des chocs environnementaux. Leurs performances respectives font fréquemment l’objet de 
comparaisons, du type de celle qu’effectuent Collard et Fève dans l’article suivant. Il convient 
donc que les estimations de ces deux modèles fassent l’objet de méthodes relativement 
similaires et présentant le même degré de rigueur et de sophistication. 
La méthode la plus usuelle pour estimer un système d’équations simultanées est le maximum 
de vraisemblance. Cependant, cette méthode soulève deux difficultés pour les modèles 
dynamiques. D’une part les modèles VAR ont un nombre de paramètres à estimer 
considérable, alors que l’économètre ne dispose le plus souvent que de séries dont la longueur 
ne dépasse pas cent trimestres. D’autre part, bien que les modèles DSGE aient peu de 
paramètres, la fonction de vraisemblance est relativement plate dans certaines directions de 
ces paramètres, ce qui implique qu’ils ne peuvent pas être estimés avec précision. Le principe 
de l’estimation bayésienne est de compléter l’information que fournissent les données par des 
informations préalables, dites a priori, dont disposait le modélisateur sur les valeurs de 
paramètres. Pour les modèles DSGE, dont les paramètres sont structurels, ces informations sont en général d’ordre économique (provenant d’études micro-économétriques, effectuées 
sur des pays étrangers, etc.). Pour les VAR, dont les paramètres n’ont le plus souvent pas de 
sens économique clair, ces ‘informations’ se limitent à une façon sage et claire d’exprimer son 
ignorance. 
Plus précisément, l’estimation bayésienne part d’une probabilité a priori des valeurs que le 
modélisateur attribue aux paramètres, et révise celle-ci, grâce à la fonction de vraisemblances, 
pour obtenir une probabilité a posteriori sur l’espace des paramètres. Il est alors possible de 
calculer le mode de cette dernière distribution, c’est-à-dire son maximum, ce qui donne une 
extension de l’estimation du maximum de vraisemblance. Les économètres souhaitent 
cependant calculer d’autres moments de la distribution a posteriori des paramètres, par 
exemple l’espérance ou la variance de ceux-ci. Ces moments se calculent par une méthode de 
Monte Carlo reposant sur des tirages aléatoires de valeurs des paramètres suivant leur loi de 
distribution a posteriori. La difficulté d’application de cette méthode est que si la valeur de 
cette distribution en chaque point peut être calculée numériquement, cela ne suffit pas pour 
permettre d’effectuer des tirages aléatoires de façon simple. Plusieurs méthodes ont été 
développées pour résoudre ce problème, la plus usitée en économie étant l’algorithme de 
Métropolis-Hasting. DYNARE permet d’effectuer d’une façon particulièrement conviviale 
l’estimation bayésienne d’un modèle DSGE. 
L’évaluation des modèles DSGE que proposent F. Collard et P. Fève, consiste à comparer 
leurs qualités prévisionnelles à celles d’un modèle VAR. Del Negro, Schorfheide, Smets et 
Wouters (2005) avaient établi que des modèles DSGE de grandes tailles présentent des 
qualités prédictives, hors période d’estimation, satisfaisantes, dominant celles des modèles 
VAR. Collard et Fève montrent que cette supériorité peut rester valide pour des modèles 
DSGE de petite taille, à condition qu’ils prennent en compte les rigidités les plus importantes 
dans les comportements que ces modèles cherchent à modéliser. Ces auteurs construisent un 
modèle DSGE très simple, qui ajoute au modèle du cycle réel de base deux rigidités réelles, 
dans le comportement d’investissement des firmes d’abord et dans l’offre de travail des 
ménages ensuite, ainsi qu’un choc de demande. Ce modèle comporte deux variables 
endogènes observables qui sont la productivité horaire du travail et le nombre des heures 
travaillées. Il est estimé par le maximum de vraisemblance sur données trimestrielles 
américaines, aux côtés d’une représentation VAR de ces deux variables. L’estimation par le 
maximum de vraisemblance au lieu du recours à une estimation bayésienne, permet de ne pas vicier la comparaison par la possibilité que les probabilités a priori qui auraient été alors 
imposées sur les paramètres des deux modèles, soient d’une qualité différente. 
Les log-vraisemblances des deux modèles, DSGE et VAR, s’avèrent très voisines, alors que le 
modèle DSGE contient moins de paramètres. Mais le résultat le plus intéressant est que les 
capacités prévisionnelles, hors échantillon, des deux modèles sont similaires. Comme les 
modèles DSGE permettent une identification mieux justifiée des chocs structurels, et comme 
ils sont des instruments beaucoup mieux fondés pour l’analyse économique et l’évaluation des 
politiques, ils semblent à tous les égards devoir être préférés aux VAR. 
Applications des modèles DSGE 
Une utilisation importante des modèles DSGE est de permettre l’évaluation de politiques 
économiques, monétaires, budgétaires ou structurelles Ces modèles permettent aussi une 
interprétation riche et cohérente d’épisodes économiques passés, notamment si ceux-ci ont été 
particulièrement dramatiques, comme une récession ample et d’une longue durée. 
Nous avons vu que le caractère stochastique des modèles DSGE joue un rôle important pour 
déterminer et évaluer les différents aspects de leur spécification. Celle-ci doit en effet 
permettre de reproduire les caractéristiques habituellement observées du cycle des affaires. 
C’est-à-dire une simulation stochastique du modèle doit générer des trajectoires de ses 
variables dont les principaux moments sont proches de ceux que l’on observe dans la réalité. 
Nous avons également constaté comment ce caractère stochastique était essentiel pour 
l’estimation du modèle. Nous allons voir en revanche que dans leur application à l’évaluation 
des politiques et des réformes économiques, les modèles DSGE sont souvent (mais pas 
toujours) utilisés dans leur version déterministe, c’est-à-dire après en avoir éliminé la partie 
aléatoire. 
D. Botman, P. Karam et D. Laxton présentent deux modèles DSGE multinationaux du 
Fonds Monétaire International, GEM et GFM. Ces deux modèles développés au FMI diffèrent 
l’un de l’autre en ce que le premier a une riche dynamique de court terme, reposant sur des 
rigidités nominales, alors que le second est construit pour étudier les effets de moyen et long 
terme des politiques budgétaires et inclut des mécanismes permettant d’échapper à 
l’équivalence ricardienne. Une qualité de ces modèles est leur caractéristique modulaire. Ils sont constitués d’un cœur, qui inclut les rigidités et imperfections de marché les plus 
importantes des modèles DSGE et de la nouvelle macroéconomie ouverte. Il est ensuite facile 
d’ajouter à ce cœur les ingrédients qui s’avèrent nécessaires pour étudier un problème 
spécifique, par exemple des biens non échangeables, des biens intermédiaires échangeables, 
des matières premières, etc. Il est tout aussi aisé de faire varier le nombre de pays ou de zones 
modélisés, et de choisir ceux-ci. Ces modèles peuvent donc être utilisés pour analyser une 
grande variété de problèmes. Parmi ceux-ci on peut citer : l’évaluation des règles de politique 
monétaire (dans ce cas avec des simulations stochastiques de GEM), le calcul des effets de 
réformes structurelles des marchés des biens et du travail, l’analyse du déséquilibre de la 
balance des paiements des Etats-Unis, la mesure des effets de baisses d’impôts ou de réformes 
fiscales, l’évaluation des effets d’une substitution partielle de plans d’épargne retraite au 
système de retraites par répartition, etc.. La contrepartie de cette souplesse est que les 
nombreuses versions qui ont été utilisées de GEM et GFM n’ont pas été estimées par des 
méthodes économétriques rigoureuses, mais ont été le plus souvent étalonnées et ajustées sur 
un compte central. 
Une des forces des modèles DSGE est que le caractère rigoureux de leur spécification 
économique permet de retirer des interprétations claires et précises de leurs résultats, qui 
peuvent faire l’objet de larges discussions en termes non techniques. C’est ainsi, par exemple, 
que dans leur édition de 2006, les Perspectives de l’Economie Mondiale que publie le FMI, 
utilisent GEM pour analyser le déficit de la balance des paiements américaine et pour 
construire des scénarios donnant les effets de son ajustement sur les principales économies. 
L’édition de 2007 emploie encore GEM comme base de discussion des effets d’une hausse du 
prix du pétrole, et d’une analyse des transmissions internationales des chocs conjoncturels. 
Les évaluations des politiques en termes de variations du bien-être intertemporel des ménages, 
que permettent de calculer les modèles DSGE, sont aussi particulièrement convaincantes. 
M. Coupet et J.-P. Renne ont construit un modèle DSGE pour la France. L’estimation 
économétrique en a été effectuée sur la période antérieure à l’instauration de l’euro comme 
monnaie commune européenne. Il est utilisé sur la période actuelle après avoir ajusté au 
nouveau cadre institutionnel sa spécification des politiques monétaires et de change. Ce 
modèle a une structure similaire à celle de GEM, mais ne représente qu’un seul pays ouvert 
sur le reste de la zone euro. Il fait l’objet d’une estimation économétrique bayésienne qui comporte un apport original. Habituellement, les variables économiques utilisées dans 
l’estimation sont préalablement et indépendamment filtrées de leurs composantes à basses 
fréquences. Coupet et Renne font le choix, plus satisfaisant, de supposer que ces variables 
suivent des processus stochastiques stationnaires au voisinage de tendances stochastiques 
exogènes, mais cohérentes entre elles et ayant des sens économiques clairs. En revanche, les 
caractéristiques stochastiques du modèle ne sont plus prises en compte quand il est utilisé 
pour évaluer des réformes. 
Le modèle est utilisé pour examiner les effets de hausses de l’imposition des revenus du 
travail et du capital, ainsi que d’une élévation du taux de TVA. On sait que les conséquences 
effectives d’une taxe sont très différentes de son impact immédiat, et que l’identité des agents 
qui en supportent finalement le coût peut fortement différer de ceux qui sont directement 
frappés par cet impôt. Par exemple, les ménages déterminent leur comportement d’épargne en 
comparant l’inconvénient qu’il y a à transférer à plus tard une consommation dont ils 
pourraient bénéficier tout de suite, à l’avantage que procure la rémunération (après taxes) de 
cette épargne. En conséquence, dans le long terme, le taux de rémunération (après taxes) du 
capital est égal au taux d’escompte psychologique des ménages. Aussi, une élévation de 
l’imposition du capital n’en altère pas le taux de rentabilité net d’impôt dans le long terme, 
donc élève le taux de rendement avant impôt. Cela conduit à une réduction de l’intensité 
capitalistique de l’économie et en conséquence à une baisse des salaires. Une augmentation de 
l’imposition du travail pour sa part est in fine entièrement supportée par les salariés, même s’il 
s’agit d’une augmentation des cotisations sociales payées par les employeurs. L’offre de 
travail diminue en fonction de la sensibilité de l’offre de travail au salaire net, mais 
probablement assez peu, l’intensité capitalistique ne bouge pas et l’économie s’appauvrit 
moins que dans le scénario précédent. 
Le modèle reproduit ces résultats de long terme. Une hausse de l’imposition du capital réduit 
beaucoup plus le PIB qu’une élévation de l’imposition du travail, et cela parce qu’elle a un 
effet négatif ample sur l’investissement. Une hausse de la TVA a des effets intermédiaires, 
son caractère négatif résultant de ce que la TVA ne frappe pas que la consommation, mais 
aussi, à un degré partiel, l’investissement et certaines consommations intermédiaires. L’apport 
original du modèle se situe dans l’analyse qu’il permet de la dynamique des effets de ces trois 
mesures fiscales. Cette dynamique est complexe et dépend de la structure des rigidités réelles 
et nominales du modèle. Par exemple, dans le court terme le salaire nominal est rigide. En conséquence une hausse de l’imposition du travail élève le coût du travail pour l’entreprise ce 
qui a un effet récessif notable. En fait, le travail est relativement mobile à court terme et inerte 
à long terme. Le facteur capital a les caractéristiques opposées. 
Le modèle de Coupet et Renne est enfin utilisé pour évaluer les effets de l’instauration d’une 
TVA sociale, c’est-à-dire d’une réduction de l’imposition du travail compensée par une 
augmentation du taux de TVA. Cette mesure sera fortement expansionniste dans le court 
terme, mais légèrement récessive à long terme à cause de l’effet négatif d’une hausse de la 
TVA sur l’investissement. Le modèle de la DGTPE est riche et flexible et, comme GEM, il 
est susceptible de nombreuses autres applications5

S. Adjemian, C. Cahn, A. Devulder et N. Maggiar ont construit un modèle de la zone euro, 
considérée comme une économie fermée, dont la spécification est très voisine de celle 
introduite par Smets et Wouters (2003). Ils ont estimé leur modèle par une méthode 
bayésienne sur la période antérieure à la constitution de la zone euro. Ils l’utilisent pour 
évaluer les effets d’une hausse permanente de la TVA, annoncée deux ans avant d’être mise 
en oeuvre. La simulation des effets de cette politique est là aussi purement déterministe, c’est-
à-dire effectuée après avoir annulé toutes les perturbations stochastiques. L’intérêt de 
l’exercice est de fournir une mesure de l’incertitude de ces effets. En effet, l’estimation 
bayésienne, contrairement à l’estimation classique, ne donne pas pour chaque paramètre une 
valeur estimée, mais une distribution (a posteriori) de valeurs possibles. Le plus souvent, on 
résume cette distribution par une valeur, par exemple son mode, et on simule le modèle en 
ayant affecté à chaque paramètre sa valeur-résumé. Il est cependant plus satisfaisant 
d’effectuer une succession de tirages aléatoires des valeurs de l’ensemble des paramètres, 
2000 chez les auteurs, de simuler le modèle pour le résultat de chacun de ces tirages, et de 
déduire la distribution de probabilité des effets de la hausse de la TVA sur chaque grandeur 
économique. Un résultat remarquable est que les trajectoires des variables endogènes 
obtenues par ces simulations, sont assez voisines les unes des autres, et donc que l’incertitude 
sur les résultats économiques d’une hausse de la TVA est modérée.

Bibliographie 
Christiano, L., Eichenbaum, M. et Evans, C. (2005). Nominal Rigidities and the Dynamic 
Effect of a Shock to Monetary Policy. Journal of Political Economy, 113, 1-45. 
De Vroey, M. et Malgrange, P. (2007). La théorie et la modélisation macroéconomiques, 
d’hier à aujourd’hui. Revue Française d’Economie, à paraître. 
Del Negro M., F. Schorfheide, F. Smets et R. Wouters (2005). On the Fit and Forecasting 
Performance of New-Keynesian Models. Working Paper Series 491. Banque Centrale 
Européenne. 
Klein, L. (1950). Economic Fluctuations in the United States. 1921-1941. New York, Wiley. 
Laxton D, P. Isard, H. Faruqee, E. Prasad et B. Turtelboom (1998). Multimod Mark III. The 
Core Dynamic and Steady-State Models. Occasional Paper 164. Fonds Monétaire 
International. Washington D. C 
Obstfel, M. et Rogoff, K (1995). Exchange Rate Dynamics Redux. Journal of Political 
Economy, 103(3), 624-660. 
Pissarides C. A. (1990). Equilibrium Unemployment Theory. Oxford, Basil Blackwell. 
Smets, F. et Wouters, R. (2003). An Estimated Stochastic Dynamic General Equilibrium 
Model of the Euro Area. Journal of European Economic Association, 1, 1123-1175. 
Tinbergen J. (1939) . Statistical Testing of Business Cycles Theories. Vol. 2 : Business Cycles 
in the United States of America, 1919-1932, Genève, Ligue des Nations. 

Nguồn bài này: http://halshs.archives-ouvertes.fr/docs/00/27/09/00/PDF/Introduction_DSGE.pdf




Không có nhận xét nào:

Đăng nhận xét