Overblog
Suivre ce blog Administration + Créer mon blog
15 janvier 2022 6 15 /01 /janvier /2022 21:42
Jón Steinsson et Emi Nakamura (crédit : Hagit Caspi)

Jón Steinsson et Emi Nakamura (crédit : Hagit Caspi)

Nul autre champ de la science économique ne semble susciter autant de controverses, notamment de la part de ses propres praticiens, que la macroéconomie [Coyle et Haldane, 2014 ; Korinek, 2015 ; Romer, 2016 ; Stiglitz, 2018]. Les critiques se sont notamment cristallisées sur l’essor des modèles DSGE, accusés d’avoir contribué à entraîner une complexification mathématique abusive des travaux, une focalisation excessive sur la cohérence interne des modèles au détriment de leur cohérence externe, l’adoption d’hypothèses irréalistes, une négligence de la sphère financière, etc., des dérives qui ont peut-être rendu la profession bien peu présentable lorsque la crise financière mondiale éclata en 2008 [Hoover, 2021]

Dans un exercice qu’ils veulent avant tout descriptif, Philip Glandon, Kenneth Kuttner, Sandeep Mazumder et Caleb Stroup (2022) ont précisément cherché à retracer l'évolution de la recherche macroéconomique, du moins celle publiée par les revues les plus prestigieuses de la discipline. Ils ont étudié 1.894 articles parus depuis 1980 dans cinq revues spécialisées (le Journal of Monetary Economics, le Journal of Economic Dynamics and Control, le Journal of Money, Credit and Banking, l'American Economic Journal: Macroeconomics et la Review of Economic Dynamics) et cinq revues généralistes (l’American Economic Review, Econometrica, le Journal of Political Economy, le Quarterly Journal of Economics et la Review of Economic Studies). Pour chaque article, ils ont collecté des données relatives à plusieurs de ses caractéristiques, notamment les objectifs de recherche qu’il poursuit et la méthodologie à laquelle il a recours.

Au terme de leur analyse, Glandon et ses coauteurs se disent aller dans le sens de Ricardo Reis (2018), pour lequel la macroéconomie constitue un champ « varié » et « vibrant », ne se résumant pas à une « modélisation DSGE sans âme ». Mais ils mettent toutefois bien en évidence un mouvement de convergence vers une approche commune pour la recherche appliquée. 

Leur analyse confirme qu’au cours des quatre dernières décennies la recherche macroéconomique s’est de plus en plus focalisée sur la théorie (cf. graphique 1). En effet, la modélisation formelle, recourant désormais quasi systématiquement aux microfondations, tient une place centrale dans 70 % des articles publiés entre 2016 et 2018 ; les articles n’incorporant pas un passage substantiel de théorie formelle s’avèrent particulièrement rares.

GRAPHIQUE 1  Répartition des publications selon leur méthodologie (en %)

Comment la recherche macroéconomique a évolué ces quarante dernières années

source : Glandon et alii (2022)

Ensuite, non seulement la théorie formelle a pris une place de plus en plus importante dans les publications, mais elle fait preuve en outre d’une complexité croissante, permise notamment par l’explosion de la puissance de calcul [Sergi, 2015]. La part des travaux recourant à des modèles d’équilibre général et, surtout, à des modèles d’équilibre partiel a diminué, les macroéconomistes s'appuyant de plus en plus fréquemment sur les modèles DSGE. Parmi eux, c’est le recours à des modèles à agent représentatif qui domine largement, mais les modèles à agent hétérogène sont de plus en plus répandus et ils représentent désormais un tiers d’entre eux. Glandon et ses coauteurs soulignent bien que, si la modélisation DSGE est devenue le cadre de modélisation privilégié, elle n’a pas pour autant fait disparaître les autres formes de modélisation : comme le concluait Olivier Blanchard (2009, 2017), ces dernières ont toujours leur place en macroéconomie.

GRAPHIQUE 2  Répartition des publications centrées sur la théorie selon la nature de l’équilibre (en %)

Comment la recherche macroéconomique a évolué ces quarante dernières années

source : Glandon et alii (2022)

Ce recentrage de la recherche vers la théorie formelle s’est accompagné d’un moindre usage des méthodes économétriques en vue de tester les hypothèses : seulement 10 % des articles publiés entre 2016 et 2018 ont cherché soit à corroborer, soit à rejeter une théorie. Par contre, depuis 1990, les travaux ont de plus en plus cherché à estimer les variables de leur modèle à partir des données empiriques. En l’occurrence, leurs concepteurs cherchent à construire des modèles mimant certains aspects des données. En outre, beaucoup de publications utilisent de telles méthodes d’estimation pour juger des effets des politiques macroéconomiques à partir de leur modèle quantitatif.

Le fait que les macroéconomistes cherchent moins à tester les hypothèses économiques marque un profond changement par rapport à l’agenda même proposé par Robert Lucas et Thomas Sargent (1979) : ces derniers appelaient à une « théorie d’équilibre du cycle d’affaires » qui soit « économétriquement testable ». C’est l’essor des modèles DSGE dans les années 1990 et, avec elle, de la méthodologie d'Edward Prescott (1986), donnant la primauté à « la théorie sur la mesure », qui amène les macroéconomistes à moins chercher à tester leurs hypothèses. Mais pour Glandon et ses coauteurs, ce mouvement s’explique peut-être plus fondamentalement par les difficultés qu’il y a à tester empiriquement les hypothèses à partir de données macroéconomiques [Summers, 1991].

GRAPHIQUE 3  Proportion des publications incorporant des imperfections financières parmi celles centrées sur la théorie (en %)

Comment la recherche macroéconomique a évolué ces quarante dernières années

source : Glandon et alii (2022)

En poursuivant leur analyse, ils notent ensuite que les publications ont fréquemment recours aux imperfections de marché ; les modèles sans friction, où les marchés sont parfaitement concurrentiels, sont devenus de plus en plus rares. En l’occurrence, Glandon et ses coauteurs rejettent l’idée selon laquelle les publications ignoraient les imperfections financières avant qu’éclate la crise financière mondiale en 2008 (cf. graphique 3). Cela dit, l’intérêt pour les imperfections sur les marchés financiers a toutefois eu tendance à s’émousser dans les années 1980 et il ne s'est vraiment ravivé qu'avec la crise financière mondiale : le nombre de publications intégrant des frictions financières a fortement augmenté au cours de la dernière décennie. Presque la moitié des articles publiés entre 2016 et 2018 prennent en compte le secteur financier dans leur modélisation et/ou incluent des frictions financières.

Glandon et ses coauteurs notent également que les méthodes sur séries temporelles, populaires dans les années 1980 et 1990, ont de moins en moins été utilisées. Parallèlement, les publications macroéconomiques ont eu tendance à délaisser les séries temporelles agrégées pour recourir aux données microéconomiques, à l’image de ce que font notamment Emi Nakamura, Jón Steinsson, Atif Mian et Amir Sufi. Pour Glandon et ses coauteurs, cette utilisation croissante des méthodes de microéconomie appliquée et de données microéconomiques semble s’inscrire dans la « révolution de la crédibilité » évoquée par Angrist et Pischke (2010). Là aussi, ce mouvement s’explique notamment par les difficultés à tester empiriquement les hypothèses à partir de données macroéconomiques, si bien que l'on peut y voir un progrès pour la discipline.

 

Références

ANGRIST, Joshua, & Jörn-Steffen PISCHKE (2010), « The credibility revolution in empirical economics: How better research design is taking the con out of econometrics », in Journal of Economic Perspectives, vol. 24, n° 2.

BLANCHARD, Olivier (2009), « The state of macro », in Annual Review of Economics, vol. 1, n° 1.

BLANCHARD, Olivier J. (2017), « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril.

COYLE, Diane, & Andrew HALDANE (2014), « Financial crash: What’s wrong with economics? », in Prospect, 9 décembre.  

GLANDON, Philip J., Kenneth KUTTNER, Sandeep MAZUMDER& Caleb STROUP (2022), « Macroeconomic research, present and past », NBER, working paper, n° 29628.

HOOVER, Kevin D. (2021), « The struggle for the soul of economics », Center for the History of Political Economy, working paper, n° 2021-04.

KORINEK, Anton (2015), « Thoughts on DSGE macroeconomics: Matching the moment, but missing the point? ».

LUCAS, Jr., Robert E., & Thomas J. SARGENT (1979), « After Keynesian macroeconomics », in After the Phillips Curve: The Persistence of High Inflation and High Unemployment.

PRESCOTT, Edward C. (1986), « Theory ahead of business cycle measurement », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.

ROMER, Paul (2016), « The trouble with macroeconomics ».

SERGI, Francesco (2015), « L’histoire (faussement) naïve des modèles DSGE ».

STIGLITZ, Joseph E. (2018), « Where modern macroeconomics went wrong », in Oxford Review of Economic Policy, vol. 34, n° 1-2.

Partager cet article
Repost0
9 mai 2021 7 09 /05 /mai /2021 15:07
Lawrence Christiano en 2014 (crédit : Nils S. Aasheim/Norges Bank)

Lawrence Christiano en 2014 (crédit : Nils S. Aasheim/Norges Bank)

Durant les années soixante-dix, les monétaristes lancèrent les premières attaques contre les keynésiens orthodoxes, mais ce sont les nouveaux classiques (avec pour chef de file Robert Lucas) et les théoriciens des cycles d’affaires réels (notamment Finn Kydland et Edward Prescott), qui lui assénèrent les coups fatals en parvenant à imposer une nouvelle approche, d’inspiration walrasienne, qui met l’accent sur les fondements microéconomiques des modèles. Par la suite, une nouvelle génération d’économistes, qualifiés de « nouveaux keynésiens », continua de poursuivre d’une certaine façon le programme des vieux keynésiens orthodoxes, mais en veillant à microfonder leurs modèles et en utilisant une partie de la méthodologie de la nouvelle école classique et de la théorie des real business cycles, notamment le recours aux anticipations rationnelles. La théorie des cycles d’affaires réels a suscité de fortes critiques de la part de certains nouveaux keynésiens, par exemple de Larry Summers (1986), mais cela n’a pas empêché ultérieurement une certaine convergence entre ces deux courants, notamment à travers le développement des modèles dynamiques stochastiques d’équilibre général (DSGE).  

Comme le rappelle Kevin Hoover (2021), un modèle DSGE se compose d’un ensemble d’équations reliant une poignée de variables macroéconomiques, comme le PIB, l’emploi, la consommation, l’investissement et le taux d’intérêt. Il cherche à mimer le comportement de l’économie en utilisant un « agent représentatif », modélisé comme un microéconomiste modéliserait le comportement d’un individu : celui-ci a des préférences, incarnées par sa fonction d’utilité, et il maximise son utilité en fonction de son budget, en l’occurrence le PIB. Il prend ses décisions pour la période courante et les suivantes en s’appuyant sur l’information courante et en formant des anticipations rationnelles. Il peut commettre des erreurs, mais celles-ci sont aléatoires et il élabore ses anticipations en cohérence avec sa compréhension, parfaite, du fonctionnement de l’économie. Ou, pour reprendre Hoover, « l’agent représentatif n’est pas seulement à la fois un consommateur, un travailleur et un investisseur, il est également économiste ».

Les modèles DSGE sont directement inspirés des modèles d’équilibre général walrasiens et plus exactement des modèles de la théorie des cycles réels, dont ils gardent des éléments comme l’approche dynamique et stochastique, l’optimisation intertemporelle, les anticipations rationnelles et l’ajustement des marchés, mais ils incorporent aussi des éléments « keynésiens » comme la concurrence imparfaite et des rigidités nominales rendant les prix visqueux (1). Ainsi, à partir des années quatre-vingt-dix, le développement d’une telle classe de modèles laissait suggérer une véritable convergence des nouveaux classiques et des nouveaux keynésiens, non pas forcément en termes de conclusions et de recommandations en matière de politique économique, mais dans l’usage d’une même méthodologie : libre à un économiste d’ajouter telle ou telle perturbation à un modèle DSGE pour en voir les implications macroéconomiques. Certains évoquèrent une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997] en référence à la « synthèse néoclassique » des décennies de l’immédiat après-guerre ; keynésiens orthodoxes et monétaristes pouvaient alors utiliser le même cadre théorique, voire le même modèle, comme le modèle IS-LM. C’est dans un tel contexte qu’Olivier Blanchard (2008) jugeait que « l’état de la macroéconomie est bon ».

La crise financière mondiale semblait pour beaucoup avoir ébranlé l’idée d’une nouvelle synthèse. Les modèles DSGE ont en l’occurrence fait l’objet de critiques virulentes, notamment de la part d’économistes comme Anton Korinek (2015) et Joseph Stiglitz (2017). En raison de l’irréalisme de leurs hypothèses et de leur usage répandu au sein du monde universitaire et des banques centrales, les modèles DSGE ont été accusés d’avoir amenés les économistes et les institutions en charge de la politique économique à ignorer l’accumulation des déséquilibres macrofinanciers qui finirent par entraîner la crise et de ne leur avoir été qu’un piètre guide lors de celle-ci. En effet, dans leur version de base, les modèles DSGE sont dénués de secteur financier, si bien qu’ils ne sont pas appropriés pour étudier le risque d’instabilité financière, observer les effets d’une crise financière sur l’économie réelle ou déterminer comment devraient réagir les autorités pour contenir une crise financière et ses répercussions réelles. L’hypothèse d’un agent représentatif aux anticipations rationnelles et à la durée de vie infinie permet difficilement de faire émerger des phénomènes de bulles spéculatives ou de prendre en compte le fait qu’une partie de la population puisse être contrainte en termes de liquidité. L’absence de toute borne inférieure sur laquelle pourrait buter les taux d’intérêt nominaux amène à surestimer la capacité de la politique monétaire à stabilité l’activité économique et l’inflation, etc.

Malgré ces critiques, les modèles DSGE n’ont pas été abandonnés. Il faut dire que certaines critiques ont été exagérées ou qu’elles n’ont plus vraiment lieu d’être. Par exemple, Hoover juge que les détracteurs des modèles DSGE exagèrent leur importance dans la mise en œuvre des politiques économiques. En effet, les institutions en charge de la politique économique, notamment les banques centrales, n’utilisent pas seulement des modèles de type DSGE. Surtout, les décideurs ne s’appuient pas seulement sur les modèles pour prendre leurs décisions ; ils utilisent d’autres sources d’analyses et d’informations. Et leurs décisions ne sont pas le fruit d’une pure analyse économique ; elles sont en partie politiques. 

D’autre part, les partisans du modèle DSGE reconnaissent qu’il n’est pas adéquat pour étudier les crises financières s’il n’intègre pas un secteur financier. Surtout, ils ne sont guère restés passifs face à l’inadaptation de leurs modèles lors de la crise et à la montée des critiques : ils les ont améliorés. Par exemple, comme l’ont montré Christiano et alii (2018) et Jordi Galí (2018) à travers leur passage en revue de la littérature, ils ont plus fréquemment intégré un système financier et introduit des frictions financières dans leur modélisation ; afin de rendre compte de l’hétérogénéité des agents, certains ont inclus dans leur modèle DSGE deux ou trois agents représentatifs ; les modèles DSGE ont plus souvent pris en compte l’existence de la borne inférieure pour étudier les effets de la politique monétaire ; leurs concepteurs se sont inspirés des observations de l’économie comportementale et de la neuroéconomie pour modifier la fonction d’utilité de l’agent représentatif, etc. Hoover souligne que les concepteurs de modèles DSGE proposaient déjà de telles modifications avant même qu’éclate la crise financière mondiale et tendaient déjà à les utiliser plus fréquemment ; la crise a accéléré cette tendance. En fait, la crise n’a guère modifié l’attitude des concepteurs de modèles DSGE : lorsque leur modèle peine à expliquer à un fait observé, ils le modifient, en l’occurrence en adoptant de nouvelles hypothèses ou en modifiant certaines déjà retenues. Hoover ne juge pas en soi problématique une telle stratégie ; ce qu’il juge préoccupant est le rapport que les concepteurs de modèles DSGE entretiennent avec les données empiriques ou avec les économistes développant une approche alternative.

Pour Hoover, les critiques dont les modèles DSGE ont fait l’objet dans le sillage de la crise financière mondiale et les répliques qu’elles suscitèrent de la part de leurs concepteurs ravivent une vieille controverse en science économique, celle opposant les économistes qui donnent la priorité à la théorisation a priori et ceux qui donnent la priorité aux données empiriques. Cette controverse a par exemple atteint un point d’orgue à la fin du dix-neuvième siècle avec la « querelle des méthodes » qui opposa l’école autrichienne naissante avec l’école historique allemande ou encore avec le débat entre la Commission Cowles et le National Bureau of Economic Research (NBER) qui marqua la fin des années quarante ; c’est à ce dernier que Hoover pense particulièrement. Contrairement à l’image que l’on peut en avoir, le paradigme néoclassique n’était pas dominant aux Etats-Unis avant la Seconde Guerre mondiale ; il y était notamment concurrencé par le courant institutionnaliste. Certains institutionnalistes, notamment Wesley Clair Mitchell, créèrent en 1920 le NBER avec pour objectif de rendre compte le plus fidèlement possible des faits empiriques concernant l’économie américaine, notamment en mesurant le revenu national et en observant sa répartition. La Commission Cowles fut quant à elle créée au début des années trente, mais elle prit véritablement son essor dans le sillage de la Seconde Guerre mondiale, lorsqu’elle développa une nouvelle méthodologie s’appuyant étroitement sur la modélisation mathématique. Arthur Burns et Wesley Clair Mitchell (1946) publièrent un ouvrage qui fit ultérieurement date dans l’observation et la datation du cycle d’affaires. Tjalling Koopmans (1947), qui allait être d’ici peu le directeur du NBER, saisit l’occasion que lui offrit la publication de l’ouvrage de Burns et Mitchell pour s’attaquer, dans le compte-rendu critique qu’il en fit, à la « mesure sans théorie » que proposait selon lui le NBER et tenter de démontrer la supériorité de l’approche de la Commission Cowles. C’est Rutledge Vining (1949a, 1949b), l’un des membres du NBER, qui prit le plus ardemment défense de ce dernier. Aux yeux des économistes mainstream, c’est Koopmans qui sortit vainqueur de ces échanges. La Commission Cowles parvint dans tous les cas à supplanter l’approche du NBER et elle contribua non seulement à la mathématisation de la science économique, mais également à l’essor du paradigme néoclassique [Mirowski, 2002 ; Assous, 2017] (2)

Pour Hoover, la position que les théoriciens des cycles réels et les concepteurs de modèles DSGE ont adoptée est précisément celle que défendait Koopmans au sortir de la guerre : il leur apparaît nécessaire de partir d’un modèle et de privilégier sa validité interne à sa validité externe. A leurs yeux, le fait que les hypothèses d’un modèle soient peu réalistes n’est guère un problème tant que les résultats de ce modèle peuvent être confrontés aux données empiriques. Par exemple, les modèles DSGE supposent une fixation des prix à la Calvo (1983), c’est-à-dire imaginent qu’une fraction seulement des entreprises se voient donner par un système de loterie la possibilité de modifier leurs prix au cours d’une période ; un tel mécanisme ne correspond pas à ce qui est observé empiriquement, mais les concepteurs de modèles DSGE l’ont adopté simplement dans la mesure où elle leur permet de reproduire la viscosité des prix qui, elle, est empiriquement observée. Plus important, ils donnent tellement d’importance à la validité interne de leurs modèles qu’ils sont peut-être prêts à sacrifier leur validité externe : ils soulignent certes la nécessité de pouvoir tester empiriquement un modèle, mais ils ne remettent pas forcément en cause ce dernier lorsque ses résultats empiriques divergent des observations empiriques. Ce fut précisément le cas d’Edward Prescott (1986) lorsqu’il donna la proéminence de « la théorie sur la mesure » : selon lui, si les résultats de ses modèles ne collaient guère avec les observations empiriques, la faille se situerait certainement du côté de la mesure des phénomènes empiriques.

Les défenseurs des modèles DSGE soulignent l’importance de la validité interne, mais Hoover estime qu’il est finalement difficile de prétendre que leurs modèles soient microfondés. Par exemple, les théoriciens en microéconomie ont démontré que les conditions sous lesquelles les choix agrégés pouvaient être dérivés des choix individuels s’avéraient si contraignantes qu’elles ne pouvaient guère être observées dans la réalité. Sur ce plan, Hoover déplore une certaine hypocrisie parmi les principaux promoteurs des modèles DSGE : ils passent sous silence plusieurs impasses méthodologiques auxquelles ils ont été confrontés en les concevant et qu’ils n’ont pas résolus [Sergi, 2015]

Enfin, tout comme Koopmans au sortir de la guerre, les plus grands défenseurs des modèles DSGE dénient toute légitimité aux économistes qui ne partagent pas leur approche théorique aprioriste ; dans la version préliminaire de leur défense des modèles DSGE, Christiano et alii (2018) allaient même jusqu’à déclarer que « ceux qui n'aiment pas les modèles DSGE sont des dilettantes ». Ils rejoignent les théoriciens des cycles réels en jugeant que les économistes doivent partir d’un modèle respectant un ensemble de contraintes, en l’occurrence des agents représentatifs, des anticipations rationnelles et une optimisation dynamique dans un cadre d’équilibre général ; c’est ce qui constitue le cœur des modèles DSGE et leurs concepteurs ne le révisent guère lorsqu’ils les modifient pour les améliorer. Jamais ils ne remettent en cause cet ensemble de contraintes. Mais en l’imposant comme condition nécessaire à la modélisation, Christiano et ses coauteurs écartent d’autres approches possibles, par exemple celle des modèles vectoriels autorégressifs (VAR) ou celle des expériences naturelles, qui cherchent davantage à partir des données empiriques. Surtout, ils disqualifient ainsi toute éventuelle critique émanant d’économistes n’utilisant pas leur approche en la présentant de facto comme illégitime. C’est cette attitude qui apparaît aux yeux de Hoover comme particulièrement dangereuse pour la science économique ; cette dernière ne perd guère en scientificité si elle reste ouverte à la critique. Au contraire.

Comme le concluait déjà Vining au terme de ses échanges avec Koopmans, il n’y a peut-être guère de méthodologie qui soit parfaite, si bien que les économistes doivent avoir la possibilité de recourir à différentes méthodologies, différentes classes de modèles et donc non nécessairement les seuls modèles DSGE [Rodrik, 2015 ; Blanchard, 2017]. Et les critiques, qu’elles émanent ou non d’approches alternatives, contribuent à faire avancer une science. Mais de tels progrès ne sont possibles que si les scientifiques acceptent de considérer l’idée qu’ils puissent se tromper.

 

(1) Il est douteux que la concurrence imparfaite et la viscosité des prix suffisent pour permettre à un modèle de reproduire certaines intuitions de la Théorie générale, mais elles permettent de retrouver aux nouveaux keynésiens  de retrouver un résultat qui leur est cher : montrer que la politique monétaire affecte l’activité économique, du moins à court terme. Mais sur ce point, les nouveaux keynésiens s’avèrent peut-être plus proches des monétaristes que des keynésiens. 

(2) Tous les membres de la Commission Cowles n’étaient toutefois pas des néoclassiques. Plusieurs de ses membres, en particulier Lawrence Klein, lauréat du Nobel en 1980, ont particulièrement contribué à l’élaboration de modèles keynésiens et à la diffusion du keynésianisme orthodoxe. Il y a quelque chose de très ironique ici. Aux Etats-Unis, les keynésiens (orthodoxes) ont peut-être dû se résoudre à recourir la mathématisation pour ne pas être suspectés d’idéologie et parvenir à s’imposer après-guerre, mais les travaux auxquels ils participèrent dans cet effort finirent par aboutir à une nouvelle approche, celle de Lucas et des théoriciens du cycle réel, qui les détrônèrent [Assous, 2017]. 

 

Références

ASSOUS, Michaël (2017), La Pensée économique depuis 1945, Armand Colin.

BLANCHARD, Olivier J. (2008), « The state of macro », NBER, working paper, n° 14259.

BLANCHARD, Olivier J. (2017), « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril.

BURNS, Arthur F., & Wesley C. MITCHELL (1946), Measuring Business Cycles, NBER.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », in Journal of Economic Perspectives, vol. 32, n° 3.

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

HOOVER, Kevin D. (2021), « The struggle for the soul of economics », Center for the History of Political Economy, working paper, n° 2021-04.

KOOPMANS, Tjalling C. (1947), « Measurement without theory », in Review of Economic Statistics, vol. 29, n° 3.

KOOPMANS, Tjalling C. (1949), « Koopmans on the choice of variables to be studied and the methods of measurement: A reply », in Review of Economics and Statistics, vol. 31, n° 2.

KORINEK, Anton (2015), « Thoughts on DSGE macroeconomics: Matching the moment, but missing the point? ».

MIROWSKI, Philip (2002), Machine Dreams. Economics Becomes A Cyborg Science, Cambridge University Press.

PRESCOTT, Edward C. (1986), « Theory ahead of business cycle measurement », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.

RODRIK, Dani (2015), Economics Rules: The Rights and Wrongs of the Dismal Science, W. W. Norton & Company. Traduction française, Peut-on faire confiance aux économistes ? Réussites et échecs de la science économique, De Boeck .

SERGI, Francesco (2015), « L’histoire (faussement) naïve des modèles DSGE ».

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

SUMMERS, Lawrence H. (1986), « Some skeptical observations on real business cycle theory », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.

VINING, Rutledge (1949a), « Koopmans on the choice of variables to be studied and the methods of measurement », in Review of Economics and Statistics, vol. 31, n° 2.

VINING, Rutledge (1949b), « Koopmans on the choice of variables to be studied and the methods of measurement: A rejoinder », in Review of Economics and Statistics, vol. 31, n° 2.

Partager cet article
Repost0
25 avril 2021 7 25 /04 /avril /2021 14:39
Robert Barro

Robert Barro

Tout juste soixante-quinze ans se sont écoulés depuis la mort de John Maynard Keynes et ses travaux, notamment sa Théorie générale (1936), continuent de susciter différentes lectures ; la complexité (ou l'inachèvement) de sa réflexion et l’absence de modélisation mathématique ont contribué à empêcher l'émergence d'un quelconque consensus dans l’interprétation de son magnum opus.

Pour Michel De Vroey (2009), Keynes cherchait dans la Théorie générale à démontrer (i) que l’économie peut connaître du chômage involontaire, (ii) non pas en raison d’une rigidité des salaires, (iii) mais à cause d’une insuffisance de la demande sur le marché des biens et services, (iv) et qu’il ne peut être éradiqué que par une politique de relance adoptée par le gouvernement ou la banque centrale. Autrement dit, il a notamment cherché à montrer que le chômage ne pouvait être compris que comme un problème d’interdépendance des marchés et qu’il s’agit d’un phénomène d’équilibre. Keynes n’est pas parvenu au bout de sa démonstration. Par exemple, il suppose que les salaires étaient rigides ; il précise que cette hypothèse lui permet de simplifier l’exposé et qu’elle n’affecte en rien ses résultats, mais il ne le démontre guère, ne consacrant véritablement qu’un chapitre de sa Théorie générale (le dix-neuvième) à la flexibilité des prix et salaires.

Ce choix a suscité de vifs débats quant à savoir si l’existence du chômage involontaire tient ou non à la rigidité des salaires. Les keynésiens orthodoxes, notamment les divers architectes du modèle IS/LM, comme John Hicks et Franco Modigliani sont très souvent partis de l’hypothèse d’une rigidité des salaires et/ou fait de celle-ci une condition nécessaire pour faire apparaître du chômage involontaire. C’est un véritable recul par rapport au programme de Keynes, dans la mesure où les keynésiens ramenaient ainsi le chômage involontaire à un problème sur le marché du travail. Certains, comme Samuelson, ont évoqué une « synthèse néoclassique », mais celle-ci n’a guère eu de réalité tangible : les keynésiens de la synthèse estimaient finalement que le court terme était keynésien, mais qu’à long terme la théorie néoclassique retrouvait sa validité. La différence tenait au fait que les prix et salaires se sont pleinement ajustés à long terme, mais non à court terme.

Nul n’est peut-être parvenu à réaliser une véritable synthèse entre les cadres néoclassique et keynésien, mais Don Patinkin (1956, 1965) fut près d’y parvenir. Patinkin a cherché à faire apparaître une situation keynésienne de chômage involontaire dans un cadre walrasien d’équilibre général ; à ses yeux, il n’y avait guère incompatibilité dans la mesure où, la Théorie générale évoquant un chômage provoqué par une insuffisance de demande sur le marché des biens et services, c’est un cadre d’équilibre général qu’il faut adopter pour observer l’interdépendance des marchés et ainsi faire apparaître un chômage involontaire. En l’occurrence, Patinkin a considéré une économie initialement au plein emploi et supposé que celle-ci connaissait une baisse de la demande de biens et services. Dans un cadre néoclassique, ce choc entraîne immédiatement un ajustement des prix : les prix baissent, ce qui accroît la valeur réelle du stock de monnaie détenu par les agents, donc amène ces derniers à consommer davantage et permet de maintenir l’économie au plein emploi. Dans un cadre keynésien, Patinkin considère que le même mécanisme (qualifié d’« effet d’encaisses réelles » ou « effet Pigou ») est à l’œuvre, mais plus lentement, si bien que les entreprises réagissent à l’accumulation des stocks en licenciant et que l’économie s’éloigne du plein emploi. Le chômage involontaire apparaît donc bien comme un problème d’interdépendance des marchés : les ménages sont contraints dans leur offre de travail car les entreprises sont elles-mêmes contraintes, en l’occurrence par un manque de débouchés sur le marché des biens et services. Cela dit, Patinkin considère le chômage comme un phénomène de déséquilibre, subsistant tant que l’économie n’a pas rejoint son nouvel équilibre. Mais surtout, contrairement à ce qu’il a pu prétendre, Patinkin n’a pas réussi à faire apparaître un chômage involontaire indépendamment de l’hypothèse d’une viscosité des salaires. En définitive, il a certes offert ce qui constitue pour certains « l’épitomé de la synthèse néoclassique » [De Vroey, 2009], mais sa vision ne s’est guère imposée chez les keynésiens de la synthèse.

Insatisfait par l’état du keynésianisme orthodoxe et par la domination du modèle IS/LM, c’est Robert Clower (1956, 1965) qui a ouvert la voie à une reprise du programme de Patinkin. Alors que les économistes faisaient habituellement l’hypothèse que les ménages décident simultanément de leurs comportements sur le marché du travail et le marché des biens et services, Clower introduit l’hypothèse de « décision duale » : les ménages décident du montant de leur consommation en fonction du revenu qu’ils gagnent de leur participation sur le marché du travail. Clower s’inspire ici directement de la fonction de consommation que développe Keynes dans la Théorie générale ; c’est cette idée d’une consommation contrainte par le revenu qui constitue selon lui la clé de voûte de la réflexion keynésienne et il reproche précisément aux keynésiens de la synthèse de l’avoir écartée. Cette hypothèse permet à Clower de montrer qu’un éventuel rationnement sur le marché du travail affecte la situation sur le marché des biens et services. En outre, il introduit d’un échec de coordination : il n’y a guère de commissaire-priseur pour coordonner les décisions des échangistes et les amener à reformuler leurs offres et demandes si les marchés ne sont pas équilibrés. Par conséquent, si un rationnement apparaît sur le marché du travail, un rationnement apparaîtra également sur le marché des biens et services et aucun des deux marchés ne s’apurera.

Les travaux de Patinkin et de Clower, approfondis par les réflexions d’Axel Leijonhufvud (1968), ont ouvert la voie à un nouveau courant de pensée macroéconomique que l’on a initialement qualifié de « théorie du déséquilibre », avant que l’on évoque des « modèles d’équilibre non walrasien » [De Vroey, 2009]. Les approches de Patinkin et de Clower étaient en effet complémentaires. Tous deux évoquaient un effet de report : le rationnement sur un marché entraîne un rationnement sur un autre marché. Mais alors que Patinkin se focalisait sur les entreprises et observait comment celles-ci changeaient de comportement en matière de demande de travail du fait d’un rationnement sur le marché des biens et services, Clower se focalisait sur les ménages et observait comment ces derniers changeaient de comportement sur le marché des biens et services du fait d’un rationnement sur le marché du travail. Ce sont Robert Barro et Herschel Grossman (1971, 1976) qui ont généralisé les apports de Patinkin et de Clower dans un même modèle, à prix fixes. De nombreux modèles ont été développés dans la cadre de la théorie du déséquilibre ; nous pouvons notamment compter ceux d’Antoine d’Autume, de Jean-Pascal Benassy, de Jacques Drèze et d’Edmond Malinvaud, mais aussi de John Hicks, qui confirmait ainsi son éloignement par rapport à ses propres positions quelques décennies plus tôt. Les prix étant considérés visqueux, les ajustements passent désormais avant tout par les quantités. Mais alors que Barro et Grossman se contentaient avant tout de faire l’hypothèse d’une fixité des prix, les contributeurs ultérieurs à la théorie du déséquilibre cherchèrent par la suite à l’expliquer et à l’endogénéiser.

La théorie du déséquilibre n’a pas réussi à retrouver les conclusions keynésiennes en se débarrassant de l’hypothèse d’une viscosité des salaires, chose que recherchaient initialement Patinkin, Clower et Leijonhufvud ; elle ne s’est pas non plus écartée du cadre walrasien, contrairement à ce que désiraient Clower et Leijonhufvud. Mais elle a bien proposé un « paradigme » concurrent à celui des keynésiens orthodoxes pour expliquer le chômage involontaire, avec un sérieux avantage sur celui-ci, celui d’avoir des microfondations.

Pourtant, lorsque le keynésianisme de la synthèse fut remis en cause dans les années soixante-dix, lors de la stagflation, au motif qu’il n’était pas microfondé, il ne fut pas supplanté par la théorie du déséquilibre, mais par l’approche de Robert Lucas. Celle-ci, développée tout d’abord par les nouveaux classiques, c’est-à-dire Lucas (1972, 1975, 1977) lui-même ou encore Thomas Sargent et Neil Wallace (1975), puis par les théoriciens des cycles réels (real busines cycles), notamment Finn Kydland et Edward Prescott (1982), se singularisait avec l’adoption de deux hypothèses, à savoir celle d’un ajustement permanent des marchés et celle d’anticipations rationnelles. A la fin des années soixante-dix, Barro et Grossman, qui avaient particulièrement contribué à faire progresser la théorie du déséquilibre, s’étaient déjà détournés de celle-ci pour embrasser l’approche de Lucas ; la théorie du déséquilibre continua d’être développée en Europe dans les années quatre-vingt, avant d’y tomber également en désuétude. De leur côté, les keynésiens de la synthèse tentèrent eux-mêmes dans les années soixante-dix de proposer des approches microfondées alternatives à celle de Lucas, mais ils ne parvinrent à l’imposer [Goutsmedt et alii, 2017]. Le keynésianisme orthodoxe se maintint à partir des années quatre-vingt essentiellement à travers les travaux des « nouveaux keynésiens », qui développèrent des modèles microfondés, mais en acceptant l’approche de Lucas, notamment l’usage des anticipations rationnelles.

Selon le récit qui en est habituellement fait, par exemple par les nouveaux keynésiens Greg Mankiw (1990), Michael Woodford (1999) et Olivier Blanchard (2000), l’approche des nouveaux classiques se serait imposée, notamment face à la théorie du déséquilibre, en raison de la plus grande rigueur de sa modélisation mathématique et de la supériorité de son explication de la stagflation des années soixante-dix. Or, il n’est pas certain que les macroéconomistes aient embrassé l’approche de Lucas au motif que les modèles des nouveaux classiques en proposaient une qui soit crédible [Goutsmedt, 2017] ; les explications de la stagflation avancées par les nouveaux classiques n’étaient d’ailleurs guère reprises par les autres économistes avant les années quatre-vingt-dix et celles qui dominaient durant les années soixante-dix étaient jugées à l’époque tout à fait satisfaisantes [Goutsmedt, 2020]. Dans une nouvelle étude, Romain Plassard (2021) note que les théoriciens du déséquilibre, notamment Barro et Grossman, ont proposé des explications cohérentes de la stagflation et eux-mêmes les jugèrent crédibles. 

Afin de contribuer à expliquer pourquoi le programme de recherche de Lucas a fini par supplanter la théorie du déséquilibre, Plassard s’est penché sur Barro et Grossman pour comprendre ce qui les a amenés à changer de trajectoire intellectuelle. Selon Roger Backhouse et Mauro Boianovsky (2013), Barro et Grossman déploraient le fait que la viscosité des prix dans la théorie du déséquilibre ne résultait pas de comportements optimisateurs. Kevin Hoover (2012) juge cette interprétation correcte, mais incomplète. Plassard a donc davantage creusé dans les travaux et la correspondance de Barro et Grossman. Il apparaît que ces derniers n’ont pas adopté la macroéconomie de Lucas pour des questions de rigueur ou de réalisme ; par exemple, ils jugeaient les modèles de déséquilibre plus réalistes que les modèles avec anticipations rationnelles, en l’occurrence que ces derniers avaient gagné en rigueur en perdant en réalisme, mais ils considéraient que le réalisme des hypothèses était secondaire par rapport à l’évaluation des modèles. Barro et Grossman ont notamment été séduits par les modèles avec anticipations rationnelles pour une question de simplicité pratique : ces modèles se révélaient plus malléables que les modèles de déséquilibre, notamment pour prendre en compte les anticipations. Ils semblaient également offrir la possibilité de s'attaquer à un éventail plus large de questions. 

Plassard ne s’est pas contenté d’éclairer les bifurcations dans la production même de Barro et de Grossman ; il constate que les deux chercheurs ont contribué autrement que par leur seule production à populariser l’approche de Lucas tout en poussant la théorie du déséquilibre sur la voie du déclin. Dès le milieu des années soixante-dix, Barro et Grossman cessèrent d’enseigner la théorie du déséquilibre, mais ils présentèrent par contre à leurs étudiants les travaux adoptant l’approche de Lucas et ils acceptèrent de superviser avant tout les thèses de doctorat qui l’adoptaient. Ensuite, dès le début des années quatre-vingt, les adeptes de l’approche de Lucas, notamment Barro et Grossman, se retrouvèrent aux comités éditoriaux des revues les plus prestigieuses, ce qui facilita la publication des travaux épousant cette approche et incita davantage le reste des macroéconomistes, notamment les ultimes théoriciens du déséquilibre (Plassard prend l’exemple d’Antoine d’Autume), à l’embrasser.  

 

Références

BACKHOUSE, Roger, & Mauro BOIANOVSKY (2013), Transforming Modern Macroeconomics. Exploring Disequilibrium Microfoundations (1956-2003), Cambridge University Press.

BARRO, Robert J., & Herschel I. GROSSMAN (1971), « A general disequilibrium model of income and employment », in American Economic Review, 61.

BARRO, Robert J., & Herschel I. GROSSMAN (1976), Money, Employment, and Inflation, Cambridge University Press.

BEAUD, Michel, & Gilles DOSTALER (1996), La Pensée économique depuis Keynes, éditions du Seuil.

BLANCHARD, Olivier J. (2000), « What do we know about macroeconomics that Fisher and Wicksell did not? », in Quarterly Journal of Economics, vol. 115, n° 4.

CLOWER, Robert W. (1965), « The Keynesian counter-revolution: A theoretical appraisal », in F.H. Hahn & F.P.R Brechling (dir.), The Theory of Interest Rates.

DE VROEY, Michel (2009), Keynes, Lucas. D’une macroéconomie à l’autre, Dalloz.

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

GOUTSMEDT, Aurélien (2020), « From the stagflation to the Great Inflation: Explaining the US economy of the 1970s ».

GOUTSMEDT, Aurélien, Erich PINZON-FUCHS, Matthieu RENAULT & Francesco SERGI (2017), « Reacting to the Lucas critique: The Keynesians’ pragmatic replies », Centre d’économie de la Sorbonne, document de travail, n° 2017.42.

HOOVER, Kevin D. (2012), « Microfoundational programs », in Pedro Garcia Duarte & Gilberto Tadeu Lima (dir.), Microfoundations Reconsidered: The Relationship of Micro and Macroeconomics in Historical Perspective, Edward Elgar.

KEYNES, John Maynard (1936), The General Theory of Employment, Interest, and Money, Palgrave Macmillan. Traduction française, Théorie générale de l'emploi, de l'intérêt et de la monnaie, éditions Payot.

KYDLAND, Finn E., & Edward C. PRESCOTT (1982), « Time to build and aggregate fluctuations », in Econometrica, vol. 50, n° 6.

LEIJONHUFVUD, Axel (1968), On Keynesian economics and the Economics of Keynes, Oxford University Press.

LUCAS, Robert E. (1972), « Expectations and the neutrality of money », in Journal of Economic Theory, vol. 4, n° 2.

LUCAS, Robert E. (1975), « An equilibrium model of the business cycle », in Journal of Political Economy, vol. 83.

LUCAS, Robert E. (1977), « Understanding business cycles », in K. Brunner & A. Meltzer (dir.), Stabilization of the Domestic and International Economy, North Holland.

MANKIW, N. Gregory (1990), « A quick refresher course in macroeconomics », in Journal of Economic Literature, vol. 28.

PATINKIN, Don (1956, 1965), Money, Interest and Prices, Harper & Row.

PLASSARD, Romain (2021), « Barro, Grossman, and the domination of equilibrium macroeconomics », MPRA, paper, n° 107201.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

WOODFORD, Michael (1999), « Revolution and evolution in twentieth-century macroeconomics ».

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher