Archives de Tag: science économique

Modéliser ? (avec Wynne Godley)

J’ai récemment achevé la lecture de Monetary Economics — An Integrated Apporach to Credit, Money, Income, Production and Wealth, seconde édition chez Palgrave MacMillan, par Wynne Godley, connu chez les néochartalistes surtout pour la relation des soldes sectoriels (une des points les plus décisifs de notre argumentaire en faveur des déficits publics), et par Marc Lavoie, que j’avais eu l’occasion de qualifier de quasi-néochartaliste. J’ai hésité à en faire un billet, mais finalement, cet article du New York Times, via L. R. Wray, m’a décidé à vous partager les réflexions que ce copieux livre très technique m’a fournies. Après tout, si le très généraliste New York Times en parle, pourquoi pas mon blog nettement plus spécialisé.

Commençons par la question de la pertinence de la modélisation en économie, et par là de ce qui m’amène à vous en parler, moi qui d’habitude n’en parle que pour la rabrouer. En essayant de donner une image qui ne soit pas trop grossière, il y a fondamentalement deux approches de la connaissance, qu’on retrouve en sciences et en particulier en économie. Ces deux approches se clivent selon les oppositions suivantes : L’une est inductive et l’autre déductive. L’une est empirique et l’autre théorique. On pourrait décliner encore longtemps le clivage avec beaucoup d’autres binômes se recoupant plus ou moins parfaitement, mais la ligne de séparation est essentiellement la suivante : d’un côté on part du réel pour venir à l’idée qu’il exprime, de l’autre on part de l’idée qu’on cherche ensuite à faire valider par le réel. A priori les deux approches sont bonnes. Pourtant elles divergent radicalement quant à leurs forces et faiblesses.

L’approche empiriste est nettement supérieure pour découvrir comment le réel fonctionne. Elle s’y immerge et s’en imprègne ; le refléter lui est facile. Au contraire, l’approche hypothético-déductive, passé un certain seuil de complexité de l’objet étudié (et l’économie, que ce soit l’individu humain ou la macroéconomie, est redoutablement complexe), cette approche dérive facilement au jeu de fléchettes à l’aveugle. On invente une théorie qui parait séduisante, dans son ciel des idées, puis on espère qu’il survienne qu’elle soit en accord avec les résultats que donne le réel. Non seulement ces résultats sont souvent en contradiction, mais en plus, même lorsqu’ils semblent confirmer la théorie, il arrive souvent que ce soit pour d’autres raisons, et que, sans prévenir, le réel prenne soudainement un autre chemin que celui prédit par la théorie. C’est en extrêmement résumé la position défendue par Keynes dans son Essay on Probability. C’est cette position qu’adopte les néochartalistes en général, et mon livre en particulier (publié d’ici deux semaines), et elle consiste à s’appuyer sur les certitudes qu’offre le réel, puis à en suivre à partir de là toutes les conséquences, de manière bien chaînée, c’est-à-dire avec des vérifications empiriques régulières. La position inverse, c’est-à-dire de théoriser comme ça vous plait, puis d’obtenir quelques confirmations empirique a posteriori, quand même, est la position libérale traditionnelle, qu’on retrouve (entre autres variantes) chez Friedman dans son Essay on Positive Economics. La plus célèbre application de cette méthode par Friedman est sa « démonstration » de la relation fixe entre la quantité de monnaie banque centrale et le volume de crédit : Friedman cherche à défendre le marché libre et croit trouver une faille du keynésianisme dans cette relation, il la postule et la « démontre » moyennant des « délais longs et variables », et tout en précisant à quel point il n’a presque aucune idée de comment la relation entre les deux s’effectue (citation pages 213-214 de mon livre). Enfin, une fois que les politiques monétaristes seront officiellement tentées, elles échoueront à se comporter comme le prédisait Friedman, au point que l’avis est aujourd’hui qu’il n’y a pas de rapport entre les deux masses monétaires même à long terme ! (page 209 du livre)

Apparemment, donc, le débat est tranché, en faveur des empiristes contre les théoriciens. Et tous ceux qui pensent comme moi que la pensée économique est malade de sa manie de la modélisation qui l’égare dans de féériques modélisations dont on espère vaguement qu’elles auront un rapport utile avec la réalité (cf Schumpeter éreintant Ricardo, page 142), à l’instar du vaste public, à la fois écœurés par la docte incompétence des économistes dominants et tiraillés par le besoin d’avoir une boussole dans la jungle économique, choisissent résolument l’empirisme et rejettent les modélisations comme une sorte de nid à idéologues.

J’aurais aimé que les choses soient aussi simples.

En vérité, les deux approches ne peuvent pas être absolument opposées l’une à l’autre. Il suffit d’imaginer un « empirisme absolu » pour se rendre compte de son absurdité. En cet extrême, il est interdit de déduire la moindre projection de ce que sera le futur, car cela présuppose un fonctionnement logique, un modèle dont on ne sait s’il est observé ou s’il partage seulement son apparence avec le fonctionnement réel, ni donner la moindre idée de toutes les observations accumulées, car c’est déjà une modélisation, c’est déjà un choix théorique, bien qu’il n’en ait été tirée aucune conséquence encore. Même poursuivre les observations est interdit, car choisir de poursuivre dans telle voie plutôt que dans telle autre procède d’une projection de ce qui pourrait être intéressant au dépend de ce qui ne le serait pas, donc d’une modélisation encore, d’une théorie même embryonnaire. Bref, un empirisme absolutiste finirait tout simplement par paralyser la pensée.
Faut-il en conclure que même le plus acharné des empiristes peut être victime de l’illusion théorique ? Hélas oui. L’un des pères de la science moderne, Isaac Newton, professait que ses constructions intellectuelles avaient l’immense mérite d’être inférées du réel, d’être simplement induites par l’observation rigoureuse. Pourtant, sa théorie s’est révélée très « fantaisiste » à mesure que se sont accumulées les observations dans l’infiniment petit (ce qui a donné la physique quantique) et dans l’infiniment grand (ce qui a donné la relativité générale).
Faut-il renvoyer dos-à-dos les deux approches ? Non. Aujourd’hui encore, la physique newtonienne « dépassée » est très suffisante pour énormément d’applications pratiques, et les observations qui ont amené à sa formulation peuvent toujours être répétées avec succès. Au contraire, des théories extrêmement abstraites en économie ne cessent de revenir hanter la profession et la société, avec toujours les mêmes échecs. Comme la théorie quantitative de la monnaie, accommodée à la sauce Friedman ci-dessus, qui poussent les économies vers la dépression.

Plutôt ouvert d’esprit, et malgré mes réticences initiales, j’ai donc lu un ouvrage entier de modélisation (500 pages, quand même), en me disant que Godley m’offrirait de m’exercer à cette pratique si répandue chez les économistes, tout en m’offrant son intelligence supérieure. Leur livre refermé, voici mes conclusions : Malgré toute leur bonne volonté, le travail de modélisation prend rapidement une allure exponentielle. À chaque fois, ils sont donc amenés à simplifier, aux dépends du réalisme. C’est à ce tournant que les attendent les idéologues façon Friedman : pourquoi choisir leurs approximations plutôt que les leurs ? Justement, le modèle était supposé trancher la question ; ça tombe mal. Un exemple concret : Dans le modèle de Godley et Lavoie (G&L) n°2 (Model PC), le fonctionnement du modèle contredit le paradoxe de l’épargne keynésien (p. 117), tandis que le fonctionnement du modèle n° 5 (G&L modèle BMW) au contraire se comporte conformément au paradoxe de l’épargne. Pourquoi ? Parce que dans le modèle n° 5, il y a un secteur bancaire, mais pas de secteur gouvernemental, tandis que dans le modèle n° 2, il y a un secteur gouvernemental, mais pas de secteur bancaire. Justement, ce que Keynes disait, et que je démontre dans le livre, c’est que le crédit privé est incapable de stabiliser seul les fluctuations économiques, par exemple pour satisfaire un besoin collectif d’épargne, et que seul le déficit public peut y parvenir. C’est un cas flagrant où il valait mieux partir du réel, plutôt que d’émettre des modèles à hypothèses toujours critiquables. Or, de nombreuses autres hypothèses, mêmes beaucoup moins flagrantes, peuvent faire basculer les résultats. En fait, devenir réaliste devient si vite si complexe que ce n’est qu’à partir du modèle n°8 (G&L INSOUT) que les choses deviennent « sérieuses », et c’est justement à partir de lui que les deux co-auteurs cessent d’expliquer chacune de leurs équations parce qu’elles deviennent trop nombreuses (plus d’une centaine). Même ainsi, cela n’empêche pas la présence d’hypothèses très irréalistes, parfois résorbées très tardivement, comme les changes flottants qui n’apparaissent qu’à la fin du dernier modèle de commerce international, jusque là fondé sur… l’étalon-or. Dès lors, le lecteur ressort frustré par l’aventure, bien qu’il en ait été prévenu par l’ouvrage dès l’introduction.

Allez, deux petites citations pour finir :

Pourquoi un modèle importe ? Il détaille explicitement la pensée de l’économiste, dit le docteur Bezemer. Les autres économistes peuvent l’utiliser. Ils ne peuvent aussi facilement cloner l’intuition. […]
Le docteur Lavoie dit qu’un des modèles dont il a aidé le développement parvient à tracer le cours d’une crise. Il incorpore des compagnies qui font défaut sur leurs prêts, ce qui érode les profits bancaires et leur cause des hausses sur les taux d’intérêt : « Au moins, nous regardions dans la bonne direction. »

Extrait de l’article du New York Times ci-dessus.

Le mépris affiché avec lequel les théoriciens de haute volée, et les adversaires du libéralisme, traitaient ce groupe n’est donc pas justifié. Prenons, par exemple Yves Guyot (1843-1928), qu’un brillant théoricien a un jour appelé « ce pauvre Guyot » [en fr.]. Il avait peut-être raison si son point de référence implicite était, disons, Pareto. Mais j’ajouterai que si j’avais été un homme d’affaires ou un homme politique, j’aurais préféré demander à Guyot — qui avait un don de divination en matière d’économie appliquée — plutôt qu’à Pareto son avis sur les perspectives de l’emploi, ou sur l’évolution du prix des métaux dans les six mois. Nous sommes tous susceptibles de mériter l’épithète méprisante ce pauvre lorsqu’on nous force à nous mesurer avec une tâche qui n’est pas à notre mesure.

Schumpeter Joseph Aloïs, Histoire de l’analyse économique : III – L’âge de la science, Gallimard, Paris, 2004 (1954, 1983), 710 p., p. 131

Effectivement, il serait préférable que, s’il advenait que je me hisse à la perspicacité de Guyot, ce savoir ne se perde pas aussitôt qu’il sortirait de mon esprit. Pour le reste, je crois que je resterai encore longtemps un indécrottable empiriste. À suivre…

Publicités

2 Commentaires

Classé dans En vrac

« Un joyeux mélange d’intérêt personnel et d’idéologie »

Je reprends ici quelques informations glanées à travers des pérégrinations cybernétiques initiées par le blog de William Mitchell. C’est l’intervention de Skidelsky qui m’a décidé à rédiger ce billet.

Le premier article est ancien, puisqu’il date de décembre 2008, mais il a notamment l’avantage d’être écrit par un Nobel d’économie connu, Robert E Lucas, et de prendre date pour mesurer l’évolution des mentalités cinq ans après.

Les marchés financiers sont pris dans une « fuite vers la qualité » analogue à la « fuite vers la devise » [NdT : Il s’agit bien du terme choisi par Lucas, currency, et non money ou credit.] qui a paralysé l’économie dans les années 1930. Tout le monde veut détenir des actifs issus par le gouvernement ou garantis par le gouvernement, pour des raisons tant de liquidité que de sécurité. Les individus ont essayé de le faire en vendant leurs autres titres, mais sans augmentation de l’offre de titres de « qualité » ces tentatives ne peuvent rien faire d’autre que diminuer le prix des autres actifs. La seule autre action que peut accomplir comme individu est d’accumuler des stocks de liquide [cash] et des créances émises par le gouvernement sur du liquide en réduisant leurs dépenses. Cette réduction est le principal facteur induisant ou empirant la récession. Ajouter directement des réserves — l’actif ultime, liquide et sûr — ajoute aux réserves de « qualité » et soulager le besoin perçu de réduire les dépenses.
[…]
Le rendement sur les bons du trésor est maintenant environ le même que le rendement sur le liquide : zéro. Mais les écarts de taux entre les bons du trésor et les obligations émises par le privé sont larges pour toutes les maturités.

En 2008 donc, un Nobel d’économie, certes critiquable par ailleurs, constate que :

  1. La différence entre la crise de 1929 et celle de 2008 c’est que ce dont a besoin l’économie était la devise nationale hier et de la dette gouvernementale aujourd’hui. Ça tombe bien, le néochartalisme explique que la dette publique n’est que le déguisement de la devise nationale, et que le déficit public est la seule solution pour durablement redonner de la qualité aux actifs de l’économie.
  2. De manière contradictoire, la solution espérée consiste non pas à donner ces devises (financièrement parlant, car elle peuvent être données contre travail, bien sûr) mais à les prêter puisqu’elles achètent des actifs, c’est-à-dire promesses de paiements au détenteur. Or, si la banque centrale fait son travail aussi efficacement qu’elle le prétend, c’est-à-dire qu’elle dégage un profit tout en servant la prospérité du marché, elle doit n’acheter de ces actifs que dans la mesure où ils sont sûrs. Mais si elle le fait, l’opération est nulle : elle n’a ajouté aucune qualité au portefeuille d’actifs de l’économie (ou plutôt de la finance). Et si au contraire, la banque centrale prend sur elle de contresigner, de fait, suffisamment d’actifs en les garantissant par rachats, elle interfère alors massivement avec le fonctionnement privé du marché censé être la justification contre les déficits publics.

Bref, il y a le constat de l’échec, mais aussi un vide intellectuel face à lui.

Adam Posen, lors d’un article pour le Financial Times récemment, constate à quel point la béance est apparente.

La grande leçon de la crise financière pour la politique monétaire est qu’il n’y a pas de taux d’intérêt qui détermine ou même représente les conditions du crédit dans l’économie moderne. Ces trente dernières années, tant la science économique que les milieux politiques ont confortablement présupposé que les mouvements du principal taux d’intérêt de la banque centrale affecterait toute l’économie de manière prévisible. Cela permit au analystes académiques et marchands d’essayer d’expliquer la conduite de la banque centrale en termes de règles simples.
[…]
Cela sera intellectuellement et opérationnellement difficile, comme pour toutes les banques centrales. Nous connaissons la nécessité de tels outils mais nous ne savons pas encore comment ils fonctionnent. Pour la Fed, le défi supplémentaire est que le Congrès s’est occupé de limiter ses pouvoirs depuis que la crise a commencé, particulièrement concernant les actifs que la banque peut acheter. C’est une chance extrême que l’achat de titres adossés à des hypothèques soit toujours permis et qu’il arriva qu’ils soient ce qu’il fallait exactement acheter pour traiter la crise des hypothèques.

Posen constate ce que les néochartalistes ont toujours défendu lorsqu’ils affirment que la banque centrale n’est pas la colonne vertébrale de l’économie, que l’essentiel du travail de stabilisation et de financement est assuré par le déficit public, et la banque centrale peut au plus moduler ces évolutions, mais non les contrecarrer éternellement. C’est la notion de passivité du crédit qui est ici abordée.

Posen se trompe lorsqu’il qualifie la possibilité d’acheter des produits dérivés d’hypothèques de « chance extrême ». La Fed le peut parce que Fannie Mae et Freddie Mac sont deux agences privées « sponsorisées par le gouvernement », et que la Fed est une créature de ce même gouvernement, et voit son existence garantie par ce même gouvernement. Au moment de choisir quels titres financiers peuvent être achetés par la Fed, avec en théorie un risque de pertes financières, ainsi que des avantages impressionnants en termes de sécurité pour ceux qui se font racheter ces actifs par elle, la Fed et le gouvernement doivent faire un choix. Or, les dettes du gouvernement sont des actifs particuliers selon ces optiques : si le gouvernement s’effondre la Fed sa créature s’effondre aussi (elle est un monopole légal, issu et maintenu par le gouvernement), donc ne pas posséder de titres gouvernementaux n’améliore pas les perspectives de la Fed. Pire, si même le gouvernement fédéral n’est pas assez puissant dans le jeu économique, lui qui est énorme, et peut lever l’impôt à discrétion, qui peut l’être ? Enfin, plus que toute entreprise privée, sécuriser la dette gouvernementale est le choix le plus susceptible de ne pas favoriser tels groupes particuliers aux dépens de tels autres. Le choix de la dette publique s’impose donc naturellement comme monétisation privilégiée de la part de la banque centrale.

La confusion est pire encore. Lorsque l’État s’est décidé pour le choix monétaire de société à crédit, il s’est décidé pour une aberration du point de vue de la technique économique. En effet, lorsque la création monétaire par la banque centrale est effectuée par un prêt (elle crée de la devise en échange d’une promesse de remboursement plus intérêts), le système monétaire n’a de fait plus le choix qu’entre le Ponzi et la faillite (Cf Les Bases). Le système s’essoufflant, l’État s’est décidé à ré-inciter à un Ponzi privé en donnant un peu de sa garantie au Ponzi via Fannie et Freddie. C’est fou ce que le tout-puissant marché a besoin d’être sous assistance respiratoire étatique pour fonctionner. Las ! Comme le constatait Lucas, ça n’a toujours pas suffit à éviter une crise de 1929, et comme Posen l’a vu, la garantie de l’État continue à porter à bout de bras l’économie, laissant totalement absurde la prétention du marché à sélectionner les activités fondant sa sécurité.

Nous en venons à Robert Skidelsky, économiste assez connu ayant récemment écrit pour The Economist un papier particulièrement franc :

L’assouplissement quantitatif, dont personne ou presque n’avait entendu parler il y a cinq ans, est une grande nouvelle découverte. Les décideurs politiques ont mis leur foi en lui comme moteur de la reprise ; les variations de la quantité de monnaie fournie par la banque centrale est passé de mesure d’urgence à outil permanent. Comme Adam Posen l’a récemment dit, étant donné l’échec de la politique des taux d’intérêt seuls à déterminer les conditions du crédit, les futurs gouverneurs des banques centrales « auront à rendre conventionnels les politiques monétaires non-conventionnels ».

Ce nouvel enthousiasme pour la politique monétaire non-conventionnel est d’autant plus remarquable que personne n’est vraiment sûr de comment elle fonctionne. Il y a plusieurs mécanismes de transmissions possibles depuis la monnaie vers les prix (ou les revenus nominaux) — notamment le canal du prêt bancaire et le canal de rééquilibrage des portefeuilles d’actifs. Ils ont été extensivement essayé, avec des résultats mitigés.

Tout cela a mené John Kay à se demander pourquoi autant d’attention a été donné aux politiques monétaires non-conventionnelles « avec aucune explication claire de comment il pourrait être attendu d’elles qu’elles fonctionnent et avec peu de preuves de leur efficacité ? » Sa réponse : elles sont utiles au secteur financier et à ceux qui y travaillent.

Voici une autre réponse, donnée par l’économiste de l’Université de Chicago Robert Lucas au Wall Street Journal. L’assouplissement quantitatif, écrit-il « n’induit aucune entreprises gouvernementales nouvelles, ni positions financières gouvernementales dans des entreprises privées, ni fixation des prix ou autres contrôles des opérations des affaires individuelles, ni rôle gouvernemental dans l’allocation du capital… Ce me semble être d’importantes vertus. »

En bref, un joyeux mélange d’intérêt personnel et d’idéologie. Il en a toujours été ainsi ; ce qui n’a pas empêché les économistes de discuter les questions de politiques comme si la seule chose à trouver était la théorie de la matière !

C’est tout à fait ce que je constate aussi : la théorie économique dominante est dominante non pas par ses mérites analytiques et prédictifs, qui sont lamentables, mais parce qu’elle donne à entendre ce que les dominants veulent entendre. Ce qui est tout différent. Encore une bulle qui éclatera…

4 Commentaires

Classé dans En vrac

Décomposition d’une peau de banane (Reinhart et Rogoff)

Dans les débats concernant les dettes publiques, il est impressionnant de constater toute l’ardeur mise à trouver n’importe quelle excuse factice au service de l’austérité. Nombre de personnes dont de très nombreux économistes, ne veulent tout simplement pas considérer que la dette publique souveraine elle-même soit absurde et factice. Il fut promis entre autres « calamités » que la crise économique déclencherait des défauts souverains facilement. Puis que les taux d’intérêt monteraient partout jusqu’à devenir insoutenable, phénomène qui apparaît n’être qu’une spécificité de la périphérie de la zone euro. Aucune de ces excuses n’a fait plus de résistance qu’une peau de banane : gênante, mais tenant plus du gag que d’autres choses. Et encore celles présentées ci-dessus sont-elles les plus « sérieuses ».

Une autre de ces peaux de bananes, qui eut sa vogue ces trois dernières années, est le livre de Carmen Reinhart et Kenneth Rogoff This Time is Different. Heureusement que Reinhart et Rogoff (dorénavant R&R) nous promettent que cette fois-ci est différente, parce que vu le nombre de bombes nucléaires que les partisans de l’austérité nous ont annoncé sur la dette publique et qui se sont révéler n’être que des pétards mouillés, et vu les ravages de l’austérité, il est indispensable que cette fois soit différente pour que nous nous sacrifions encore pour ladite austérité, en effet.

En quoi est-ce différent ? Après une étude de nombreux pays depuis l’après-guerre, R&R nous promettent ni défaut souverain, ni hausse des taux d’intérêts sur la dette publique, mais une chute de la croissance. Une chute ? Quand ? De combien ? Et pourquoi ?
R&R répondent que la croissance est de 4,1 % par an en moyenne lorsque l’endettement du gouvernement central est contenu entre 0 et 30 % du PIB, 2,9 % de croissance pour un endettement entre 30 et 60 %, 3,4 % lorsqu’il est entre 60 et 90 % et -0,1 % lorsqu’il est supérieur à 90 %. L’étude serait sans équivoque nous assurent R&R : lorsque le seuil de 90 % d’endettement public par rapport au PIB est atteint, la croissance est un souvenir, et la production s’érode même lentement. Comme une attaque cardiaque terrassant celui qui s’est rajouté l’énième petit surplus de cholestérol, la fois de trop qui le tuera à terme s’il ne réagit pas.

Leurs travaux firent fureur parmi tous les partisans de l’austérité à court d’arguments, c’est-à-dire tous les partisans de l’austérité. Pourtant, leur étude semblait peu sérieuse depuis le début, et la chose n’a fait qu’empirer. D’abord, la corrélation entre croissance et endettement est floue : la croissance se situe d’abord à 4,1 % par an en moyenne, puis baisse à 2,9 % seulement, puis remonte à 3,4 % puis s’effondre à -0,1 %. Si le niveau d’endettement public empêchait progressivement la croissance, nous aurions dû constater une baisse plus régulière, et non une hausse intermédiaire. Comment savoir si la croissance ne remonte pas après 120 % d’endettement par rapport au PIB par exemple ? R&R n’ont pas étudié la question. Plus encore, une corrélation entre deux choses (le fait que deux choses surviennent en même temps) ne signifie pas que la première cause la seconde. Il se peut aussi que la seconde cause la première ou qu’une troisième cause les deux ou encore que les deux n’aient aucun rapport autre qu’une pure coïncidence…

En l’occurrence, est-ce le « poids » du niveau de la dette publique qui a réduit la croissance, ou au contraire la réduction de la croissance qui augmente le niveau d’endettement ? Premier indice : on n’a jamais pu démontrer comment en pratique la simple existence d’une dette publique qu’on fait rouler doit concrètement et immanquablement empêcher les uns et les autres de produire et de commercer ce qu’ils veulent. Deuxième indice : lorsque la croissance ralentit, typiquement en pleine crise économique, de volumineux déficits publics apparaissent et renflouent l’économie qui ne sait plus se financer à crédit autant qu’avant. Ces déficits sont de la dette publique supplémentaire, et ils permettent simplement au PIB de ne pas s’effondrer d’avantage et de repartir vite et fort. Dans l’intervalle, il y a donc clairement une augmentation du niveau d’endettement public avec une faible croissance. inversement, lorsque la croissance repart, les déficits se réduisent et le niveau d’endettement par rapport au PIB tend à se réduire, puisque le PIB augmente vite. Justement, le seuil de 90 % d’endettement par rapport au PIB a été franchi par nombre de pays aux alentour de la crise de 2008, c’est-à-dire en pleine période de dysfonctionnement économique dues à de mauvaises politiques publiques comme la dérégulation de la finance. Le déficit public étant l’une des dernières choses vivifiant la croissance, la vive recommandation de R&R de faire de l’austérité est donc désastreuse… On pourrait encore énoncer d’autres hypothèses, comme le fait qu’une économie, à mesure qu’elle se développe, a de plus en plus de mal à croître encore ; étant donné une tendance à une inexorable hausse du niveau d’endettement publique avec le temps, cela signifie que les pays arrivent à un niveau de faible croissance environ au même moment qu’ils arrivent à un niveau de fort endettement…

Reste à expliquer pourquoi la croissance s’effondre à -0,1 % une fois le seuil de 90 % du PIB d’endettement public dépassé. R&R ne fournissent pas de réponse et se bornent au constat. Le néochartaliste que je suis pense au Japon et à la panique qu’ils eurent face à leur endettement public — panique nourrie par R&R — et à l’austérité castratrice qu’ils s’infligèrent à chaque fois qu’ils eurent enfin un peu de croissance. D’autres se sont penchés plus attentivement sur la question, et l’explication est des plus embarrassante pour R&R.

Thomas Herndon, Michael Ash et Robert Pollin (dorénavant HAP) ont tenté de refaire l’étude de R&R et de l’approfondir. Problème, ils ne trouvent pas les mêmes résultats. Ils obtiennent alors de R&R leurs propres documents de travail, et recommencent. Dans une nouvelle étude encore mieux retravaillée et revérifiée, HAP découvrent que les méthodes statistiques sont douteuses (19 années chez l’un pèsent autant que 4 années chez l’autre) mais les résultats coïncident souvent, et le passage au-delà de 60 % d’endettement est même conforté puisque le taux de croissance moyen passe de 3,1 à 3,2 % au lieu de 2,9 à 3,4 %, sauf que… la croissance après 90 % n’est plus de -0,1 % mais de 2,2 %. Une baisse substantielle de 1 point de pourcentage avec encore une net croissance, au lieu d’une chute de 3,5 points et un arrêt nette de la croissance ! Pour arriver à ce résultat, HAP ont simplement rentré dans les calculs des données sources bizarrement omises dans les calculs de R&R, telles que des années de très fortes croissances de la Nouvelle-Zélande alors qu’elle avait plus de 90 % de son PIB d’endettement public. Seule l’année d’une récession de 7,6 % du PIB était jusque-là incluse. À elle seule, cette erreur baissait de 0,3 point la croissance mondiale moyenne au-delà de 90 % d’endettement public par rapport au PIB. Plus encore, la croissance ne baisse que très régulièrement : avec un niveau d’endettement entre 90 et 120 % à 2,4 % en moyenne et encore 1,6 % de croissance au-delà de 120 %. Ça porte à réflexion — Qu’arrive-t-il aux pays pour que leur endettement s’accroisse tout aussi inexorablement que leur croissance baisse ? — mais l’effet Jour du Jugement (fin du monde avec l’enfer pour les pêcheurs et le paradis pour les vertueux) devant faire trembler les foules de peur s’évapore : au pire, l’effet est très graduel et laisse le temps de la réflexion.

Depuis c’est la curée.

Reinhart et Rogoff ont d’abord essayé un temps de dévier les flammes en prétextant une bogue du logiciel Excel, comme dans cet article intitulé : « Reinhart, Rogoff et l’erreur d’Excel qui a changé l’histoire ». Pauvre R&R : l’austérité dont tout le monde constate les méfaits et à laquelle ils ont tant contribué serait due à une bogue d’un logiciel, dont R&R seraient naturellement les premières victimes. D’ailleurs, promis juré, jamais ils n’avaient vraiment défendu l’austérité, ils étaient mal interprétés tout au plus. D’autres, comme le Nobel d’économie Krugman ont flairé l’excuse encore plus bidon dès le début. Puis HAP se sont diffusés encore mieux et c’est la débâcle pour R&R.

Dans l’article « Oubliez Excel : C’était la plus énorme erreur de Reinhart et Rogoff », en plus de montrer ce que valait l’excuse du coupable Excel, fait le lien avec une étude d’Arindrajit Dube sur l’interprétation par R&R de leur travail :

À gauche, pour un niveau d’endettement public par rapport au PIB, la croissance durant les trois années suivantes. À droite, pour un niveau d’endettement public par rapport au PIB, la croissance durant les trois années précédentes. En moyenne.

Clairement, le niveau d’endettement indique nettement plus quelle était la croissance plutôt que ce qu’elle sera : passé le cap de 60 % du PIB, la courbe ne décroit que faiblement pour la croissance à venir et reste indécise (zone entre pointillés large), tandis qu’elle s’enfonce rapidement pour la croissance passée avec une bonne certitude (zone entre pointillés restreinte). Mieux encore, l’article ressort les déclarations embarrassantes de R&R du temps où ils appelaient effectivement à l’austérité avec leur « étude » à l’appui :

Ceux qui ne sont toujours pas convaincus que des niveaux de dettes à la hausse sont un risque pour la croissance devraient se demander pourquoi, historiquement, les niveaux de dettes de plus de 90 pour cent du PIB sont relativement rares et pourquoi ceux excédant 120 pour cent sont extrêmement rares […]. Est-ce parce que des générations de politiciens ont échoué à comprendre qu’ils auraient pu continuer à dépenser sans risque ? Ou est-ce parce que, plus probablement, à un certain niveau, même les économies avancées heurtent un plafond où la pression des coûts d’emprunt à la hausse force les politiques à accroître les taxes et à diminuer l’investissement public […] nous trouvons que de très hauts niveaux de dette supérieur à 90 % du PIB sont un poids séculaire sur la croissance économique qui dure souvent pendant deux décennies ou plus… […] Le poids sur la croissance vient le plus probablement du besoin inéluctable d’accroître les taxes, aussi bien que d’une baisse des dépenses d’investissement.

Les « plus probablement » dénotent très bien le biais idéologique pro-austérité de R&R qui fausse leur recherche, au cas ou d’autres indices seraient nécessaires. Et encore plus le raisonnement circulaire : Pourquoi faut-il de l’austérité ? Parce que sinon la dette publique s’accroît et que cette dernière pèse sur la croissance. Pourquoi la dette publique pèse-t-elle sur la croissance ? Parce qu’elle nécessite de l’austérité.
Du coup, et en logique ni meilleure ni pire que celle de R&R et des autres clones pro-austérité, si on refuse toute austérité anti-croissance, il n’y aurait plus besoin d’austérité pour éviter de ralentir cette croissance. Nettement plus enthousiasmant, non ? C’est ce que le néochartalisme explique à qui veut l’entendre. Malheureusement, dans les cercles officiels, le cercle vicieux est la base de toutes les politiques, et le cercle vertueux (le même en sens contraire) est exclu a priori du débat. C’est encore largement l’omerta.

Et les cadavres continuent de remonter à la surface. Voici par exemple la démystification de R&R par Paul Krugman, avec ce graphique concernant les croissance et niveaux de dettes du G7 :

Krugman souligne que seule l’Italie et le Japon suggèrent substantiellement la relation affirmée par R&R, et que ces deux pays ont d’abord vu leur croissance s’effondrer et seulement ensuite leur niveau de dette s’emballer. Ce qui m’a intéressé sont les cas allemand et français : jusqu’en 2007 et malgré des niveaux d’endettement très faibles, la croissance a chuté aussi très brutalement. Le cas britannique est aussi très parlant : pour n’importe quel niveau de dette, on trouve à peu près n’importe quel niveau de croissance, il n’y a pas de rapport.

Il serait plus que temps que ces personnes abandonnent l’obsession de l’austérité et comprennent que la dette publique n’a pour taux d’intérêt que ce que la banque centrale en décide.

9 Commentaires

Classé dans Compléments d'enquête

Nouvelles directions dans la théorie monétaire : Un entretien avec Marc Lavoie (1ère partie)

Marc Lavoie est professeur au Département de Science Économique de l’Université d’Ottawa. Il est l’auteur de nombreux livre d’économie post-kéynésienne. Son dernier ouvrage « Monetary Economics » écrit avec feu Wynne Gogley, est maintenant disponible en version broché sur Amazon.

Entrevue conduite par Philip Pilkington.

Philip Pilkington : Monetary Economics prend très délibérément ses distances contre le paradigme néoclassique et en même temps se propose l’ambitieux objectif de produire des modèles concis et cohérents. Aussi, commençons par le commencement : Pourquoi vous et Godley avez ressenti le besoin de vous séparer aussi implacablement du paradigme néoclassique ? Que vous en arracher de manière aussi intransigeante comme proclamée dans l’introduction de votre livre me suggère que vous et Godley l’avez trouvé déficient au niveau le plus fondamental. Pourriez-vous expliquer pourquoi il en est ainsi ?

Marc Lavoie : Tout d’abord je dois souligner que Monetary Economics était au départ un projet initié par mon co-auteur Wynne Godley au début des années 1990. Déjà dans un document publié en 1993, et par là-même écrit beaucoup plus tôt, Wynne avait annoncé la préparation d’une monographie substantielle, en collaboration avec un collègue de Cambridge. Mais bien que Wynne Godley parvint à écrire des documents de travail pour son projet de livre, il n’avait écrit qu’un brouillon plutôt squelettique du livre lui-même quand je l’ai rencontré pour la première fois à la fin de 1999. Aussi doit-il être clair que l’esprit de ce livre vient de Wynne, et qu’on pourrait dire que son corps vient de moi !

Ayant traité d’économie concrètement, par sa position au Trésor britannique jusqu’en 1970, Wynne fut convaincu que la science macroéconomique dominante n’avait tout simplement aucun sens, que ce soit le monétarisme ou le modèle keynésien standard IS/LM d’alors ; en fait il ne pouvait pas comprendre qu’une personne raisonnable, avant tout bourrage de crâne par des cours de science économique dominante, pouvait accorder la moindre crédibilité aux manuels et aux sophistiqués modèles de l’économie orthodoxe. Aussi est-il clair que Wynne souhaitait se séparer de la science économique néoclassique, et recommencer de zéro, ce qu’il fit dans une certaine mesure déjà lorsque Wynne et son collègue Francis Cripps écrivirent un livre profondément original publié en 1983, Macroeconomics. Ce livre fut écrit parce que Wynne devint convaincu que les keynésiens de toutes sortes perdaient leur guerre contre Milton Friedman et les monétaristes, parce que les keynésiens ne savient répondre que des réponses très alambiquées à des questions aussi simples que : « D’où vient l’argent ? Où va-t-il ? Comment le flux des revenus s’organisent avec la masse de monnaie ? Comment une nouvelle production est financée ? »

Notre livre Monetary Economics essaie également de fournir des réponses adéquates à ces questions. Nous nous sommes tourmentés pendant longtemps entre essayer d’engager un dialogue constructif avec nos collègues orthodoxes et d’autre part cibler un public non-orthodoxe, ou peut-être essayer d’atteindre les deux buts. À la fin, nous conclûmes qu’il était très difficile de plaire aux deux publics [NdT : Ô que oui.], et nous avons choisis de nous focaliser sur un public hétérodoxe. Dans tous les cas, j’ai passé l’essentiel de ma carrière académique à développer des vues alternatives et des modèles alternatifs de science économique — ce qui est maintenant appelé science économique hétérodoxe ; c’est la littérature que nous connaissons le mieux. Aussi nous avons fait de notre livre une contribution formelle à cette littérature plus spécifiquement comme contribution à la pensée économique post-keynésienne.

PP : Je sais que c’est une question un peu vague, mais qu’est-ce que vous et Wynne sentez être les plus fondamentales faiblesses de la théorie néoclassique/monétariste ? Dans votre livre vous magnifiez beaucoup le dynamisme et le changement, était-ce un point majeur de divorce avec l’orthodoxie ?

ML : Eh bien, c’est une question plutôt vaste ! Les critiques de l’école néoclassique, et du monétarisme de Friedman, ont écrit des douzaines de livres et des centaines de pages sur ce sujet. Pour commencer, je suppose que Wynne s’opposait aux explications basiques de l’inflation par excès de demande, où l’excès de création monétaire génère une demande globale excessive et ainsi de l’inflation. Wynne pensait que la demande de monnaie est endogène [NdT : ici, on parle d’abord de la monnaie de crédit, et non de la monnaie souveraine, l’endogénéité de la monnaie est aussi appelée passivité du crédit.], entraînée par les nécessités de l’économie, principalement par le temps pris par le processus de production, qui implique des productions intermédiaires et des produits encore invendus, dont la production doit être financée à crédit. Wynne rejetait également l’explication orthodoxe de l’inflation parce que son travail sur la théorie de la fixation des prix le conduisit à croire que les prix étaient fondés sur le coût unitaire normal, avec aucune relation claire entre une plus forte production et ce prix unitaire normal, ni entre l’augmentation de la production et un enchérissement. Ainsi toute relation qui pourrait être trouvée entre les prix et la monnaie était probablement due à une causalité inversée. En effet, Wynne n’a jamais cru au concept du taux naturel de chômage, le NAIRU [NdT : cf le très complet L’épouvantable NAIRU est toujours d’actualité], ou la courbe de Phillips associée ; et les plus sophistiquées analyses et méta-analyses économétriques lui ont donné raison.

La causalité inversée affecte également le lien entre l’investissement et l’épargne : pour les keynésiens, l’investissement induit l’épargne, alors que dans l’optique néoclassique, l’épargne permet l’investissement. L’importance de trouver la causalité correcte est claire de nos jours : un auteur vraiment néoclassique arguerait que les ménages doivent épargner plus pour fournir aux entreprises les fonds nécessaires pour qu’elles investissent ; mais si les ménages réduisent leurs dépenses de consommation, les entreprises vendront moins, pourquoi voudraient-elles investir plus ? La macroéconomie néoclassique est essentiellement centrée sur l’offre ; c’est pour nous une faiblesse fondamentale : les économies capitalistes, le plus souvent, sont menées par la demande. Elles souffrent le plus souvent d’un manque de demande effective, non d’un manque de capacité ou un un manque de force de travail. Ainsi nous nous focalisons principalement sur les variables qui déterminent la demande globale. J’avais l’habitude de penser que seules les économies avancées avaient des capacités sous-utilisées ; mais ensuite j’ai lu un livre de 1983 par Lance Taylor, montrant les caractéristiques particulières des économies moins développées et comment elles devaient être modélisées : il défendait aussi l’hypothèse de capacités sous-utilisées !

Il est également vrai comme vous le pointez que dans notre livre nous soulignons la transition depuis la position de départ vers le nouvel équilibre — c’est-à-dire que nous allons au-delà des équilibres statiques comparés, au-delà de la comparaison entre l’état de départ et l’état d’arrivé du modèle. En partie, c’est parce que les résultats à court-terme peuvent être à l’opposé de l’impact à long-terme. Un exemple : dans un de nos modèles sophistiqués, le désir des ménages d’emprunter un plus grand pourcentage de leur revenu personnel a un impact favorable sur la consommation et le PIB à court-terme, mais ça a un impact négatif sur ces deux variables à long-terme. Nous faisons cela avec des simulations ; mais bien sûr, avec des mathématiques suffisamment attrayantes, vous pouvez également le montrer avec de l’algèbre, si le modèle n’est pas excessivement complexifié.

PP : C’est une réponse impressionnament succincte à une question très générale.

Je suppose puisque nous allons aborder cette question tôt ou tard, que le moment est pourquoi pas venu de le demander puisque vous le soulever. Vous venez de dire que vous et Godley utilisez, en fait, quand même la notion d’équilibre dans votre livre. Mais je crois comprendre que vous l’utilisez d’une manière différente de celle de la théorie néoclassique. J’en ai compris que votre version de l’équilibre ne doit pas être située dans la tradition walrasienne. Peut-être pouvez-vous expliquer comment vous et Godley utilisez la notion d’équilibre dans votre livre et comment cela contraste-t-il avec l’usage néoclassique/walrasien ?

ML : Dans la tradition néoclassique, le mécanisme d’équilibrage opère à travers les prix relatifs, par la loi de l’offre et de la demande. Les prix sont supposés refléter la rareté. Mais depuis la controverse des deux Cambridge, nous savons que ça n’est pas nécessairement le cas, et nous savons depuis le milieu des années 1970 et la découverte des conditions de Sonneschein-Mantel-Debreu que les plus sophistiqués modèles d’équilibre général walrasien ne peuvent démontrer l’accomplissement de l’équilibre par les changements de prix, ce qui signifie que les changements de prix ne peuvent pas en général remettre la demande en phase avec l’offre. En effet, comme tout le monde a pu le constater avec les récentes bulles du marché des actions et de l’immobilier, les prix en hausse dans les marchés financiers, où on aurait pu penser que la loi de l’offre et de la demande s’appliqueraient, peuvent générer des quantités demandées accrues – pas réduites.

Aussi cette manière de penser doit être abandonnée. Dans la tradition de Cambridge, les prix reflètent le coût unitaire, ou plus précisément le coût unitaire normal, c’est-à-dire les coûts unitaires estimés en opérant dans des circonstances normales (à des taux normaux d’utilisation des capacités à des ratios ciblés inventaires/ventes). Où se situera le taux de profit – la différence entre le prix et le coût unitaire normal – n’est pas facile à estimer, mais plusieurs post-keynésiens expliquent que c’est une fonction du taux de croissance des ventes de l’industrie. Ainsi les prix – sauf peut-être sur les marchés financiers et certains marchés de matières premières – ne cherchent pas à égaliser l’offre et la demande. Les prix sont au contraire le moyen d’obtenir des profits suffisants pour l’expansion. Les variations de la demande de production sont absorbées par les fluctuations dans les quantités ou les taux d’utilisation des capacités, comme il était argumenté par Keynes et les keynésiens.

L’autre mécanisme d’ajustement souligné par Wynne Godley sont les fluctuations des inventaires. Les stocks des inventaires fonctionnent comme des tampons qui absorbent les fluctuations de demande ou dans la production. Lorsque la demande diminue, une hausse de l’inventaire prend le relai, et non une baisse des prix. Une des notions clés que nous essayons de magnifier dans notre livre est que tous les secteurs incorporent un tampon. Dans le cas des entreprises, les inventaires sont des tampons évident. Du côté financier, la contrepartie aux fluctuations (non-désirées) du tampon sont le fluctuations des lignes de crédit contractées par les entreprises. C’est l’existence de ces tampons qui rend l’économie relativement stable.

Pour des gens comme nous, le solde de monnaie sur nos comptes courants bancaires sont notre principal tampon. Les fluctuations de notre revenu ou de nos dépenses de consommation. Dans le cas des banques, le principal tampon est le portefeuille d’actifs sûrs et liquides dont ils disposent, et qui peuvent être acquis ou vendus. Au niveau des banques individuelles, la gestion actif-passif agirait comme un tampon. Dans le cas d’un gouvernement, leur tampon est la quantité de titres du Trésor qu’ils ont émis. Dans le cas de la banque centrale, leur tampon est le montant de dette gouvernementale qu’elles détiennent (en Amérique du nord) ou le montant d’avances qu’elles donnent au système bancaire (en Europe continentale). Dans l’eurosystème, le tampon sont les soldes Target 2 crédités ou débités à la Banque Centrale Européenne, dont tout le monde parle tant à présent. L’équilibre, en un sens beaucoup plus faible que ne le comprendraient les néoclassiques, est achevé grâce à ces tampons. Les agents économiques réagissent ensuite plus ou moins fortement aux variations de ces tampons ou dans la mesure ou ces tampons sont éloignés de possibles objectifs. Un équilibre est atteint lorsque l’objectif de tampon est accompli.

PP : Je suppose que ce vers quoi je m’avance est un peu plus fondamental maintenant. Mon sentiment – et je pense que ce fut montré dans un très célèbre article de Spiro Latsis étudiant d’Imre Lakatos – est que la pensée économique néoclassique ne laisse pas de place significative aux agences. Tout le monde fait ce qu’il est supposé faire dans ce modèle. Vous voyez, vous êtes supposé consommer selon votre utilité marginale et vous êtes supposé investir selon la productivité marginale. Mais ces modèles de vous et Godley sont ouverts, n’est-ce pas ? Je crois que c’est cela qui m’intéresse. C’est le fait que vous avez construit des modèles cohérents qui demeurent néanmoins ouverts et ne reposent pas sur une sorte de, eh bien, « métaphysique », comme Robinson l’aurait appelé… Peut-être pourriez-vous en dire quelques mots ?

ML : Il y a en effet une distinction à la mode chez les méthodologistes en économie, entre les systèmes ouverts et fermés, avec l’argument que les systèmes ouverts laissent de la place pour les agences, alors que les modèles à systèmes fermés non. Je ne me sens pas à l’aise avec cette distinction. Si j’étais économiste néoclassique, j’argumenterais que les résultats accomplis par un modèle basé sur l’utilité marginale dépendent des éléments inclus dans la fonction d’utilité ; et certaines personnes pourraient dire que nos modèles comptablement cohérents [stock-flow consistent] sont, par construction, des modèles fermés. Je me sens plus à l’aise face à l’argument  que nos modèles comptablement cohérents sont des systèmes d’ensemble, qui peuvent être ajustés pour prendre en compte différents cadres institutionnels, et qui sont fondés sur des hypothèses réalistes, avec des variables qui sont liées à des choses réelles.

En un sens, je suis d’accord avec ce que vous avez dit : l’investissement ne dépend pas de la productivité du capital ; il dépend des ventes, des taux d’utilisation des capacités, de la rentabilité, de l’apparition de nouveaux produits, et d’autres éléments, dont l’optimisme des entrepreneurs.

PP : En fait, cela m’amène à une citation de Geoff Harcourt que vous mettez dans l’introduction de votre livre. Vous citez Harcourt en disant que les anciens post-keynésiens, comme Joan Robinson, ont essayé de regarder l’économie en la segmentant et en en examinant chacune des parties séparément. Harcourt poursuit en disant que c’est cette approche que Robinson et d’autres ont estimée être un échec. Vous venez justement de dire que vos modèles dans votre livre sont des « systèmes d’ensemble ». Est-ce alors la solution aux problèmes soulevés par des approches post-keynésiennes ? Si c’est le cas, pourriez-vous esquisser les différences entre les deux approches ?

ML : Oui, je dirai que l’approche par système d’ensemble pourrait être la plus importante contribution de notre livre à la littérature post-keynésienne, et possiblement à la science économique en général. J’ai argué en quelques occasions que le Saint Graal de la pensée macroéconomique est d’intégrer l’analyse du côté réel de l’économie (production, revenu, emploi, investissement, etc.) avec le côté monétaire (crédit, dette, actifs financiers, le financement de l’activité, la conduite des banques et des autres institutions).

Lorsque j’étais étudiant en troisième cycle à Paris, tous mes enseignants parlaient de l’intégration de la sphère monétaire dans l’économie réelle ; toutefois personne ne savait comment s’y prendre. Redécouvrir les travaux de Wynne Godley en 1996, en particulier son document de travail de 1996 au Levy Institute où cette intégration était accomplie fut une vraie révélation pour moi, et je me souviens raconter à mon collègue de toujours Mario Seccareccia alors, que c’était ce que nous aurions dû faire. Dans les chapitres les plus sophistiqués Wynne et moi analysons le flux de production et de revenu, nous lions cela avec le flux de crédit et de création monétaire surgissant du secteur bancaire, et nous lions cela au stock de capital, au stock de richesse financière et au stock de dette des ménages, entreprises et gouvernement.

Au contraire, Joan Robinson, dans son livre de 1956 The Accumulation of Capital, que je considère être l’un des plus formidables livres jamais écrits, se concentre sur la production et la technologie dans les deux premiers tiers du livre, et ne discute la monnaie et le crédit que lors des derniers chapitres (que personne ou presque ne lit, étant épuisé par la lecture des analyses complexes du choix technologique des chapitres précédents). Les deux ne sont pas intégrés. La plupart des post-keynésiens firent de même, traitant séparément de la production et de la distribution du revenu dans certains documents, et traitant de la monnaie endogène et les taux d’intérêt de l’autre. Effectivement, Wynne me disait souvent combien il regrettait que Nicholas Kaldor ne prit jamais le temps ou ne trouva jamais le temps de mettre ensemble, en une synthèse, toutes ses théories.

Maintenant, je ne déclare pas qu’on devrait toujours poursuivre une analyse à l’échelle de l’ensemble du système, ou que tout le monde devrait faire des analyses comptablement cohérentes. Mais certainement certains d’entre nous doivent s’y coller pour avoir la vision d’ensemble. Dans tous les cas, je dois souligner que d’autres auteurs dans le passé ont accompli d’une manière ou d’une autre cette approche à l’échelle de l’ensemble du système de l’économie post-keynésienne, en particulier Peter Skott (1989) et Alfred Eichner (1989) dans leurs livres. Plus récemment, Peter Flaschel et ses différents coauteurs ont écrit plusieurs livres animant cette approche d’ensemble, bien qu’ils reposent trop sur des hypothèses néoclassiques à mon goût, et Peter Skott revisite ses travaux précédents en faisant à nouveau une analyse d’ensemble.

PP : En fait, vous avez mentionné l’approche endogène de la monnaie. Concentrons-nous sur cela pour l’instant. Comme vous le savez il y a eu quelques controverses sur les blogs à propos de cette théorie. J’ai trouvé qu’une part effroyable du débat entre néoclassiques et post-keynésiens – du moins lorsqu’on en arrive à la théorie monétaire – est habituellement fondé sur l’adhésion ou non à la théorie endogène de la monnaie. Je ne vous demanderai pas les détails de la théorie parce qu’elle est déjà articulée suffisamment souvent sur la toile, mais pourquoi pensez-vous que les néoclassiques lui sont si hostiles ? Et pourquoi est-ce si important pour votre cadre théorique ?

ML : Ici je ne peux dire mieux que ce qu’Alain Parguez, un professeur remplaçant à Paris quand j’y étais arrivé étudiant en troisième cycle, a professé depuis toujours : les économistes néoclassiques se fondent sur le concept de rareté. Sans le concept de rareté, il n’y a aucune pensée économique néoclassique. En rendant le stock de monnaie exogène, le concept de rareté est recouvré, même lorsqu’on discute de création monétaire. Cela rend la théorisation possible pour les économistes orthodoxes. Ainsi il y a deux sortes d’économistes néoclassiques.

Premièrement, il y a ceux qui argumentent toujours conformément aux manuels scolaires, qu’il y a une quantité donnée de monnaie là, fermement liée au montant des réserves déterminé par une banque centrale responsable ; ils sont ceux que Basil Moore a appelé les « verticalistes », et ils ont clairement perdu le contact avec la réalité. Deuxièmement, il y a des auteurs néoclassiques qui reconnaissent que le processus de création monétaire dans les systèmes financiers modernes rend le stock de monnaie endogène, mais qui voudraient que la banque centrale se conduise d’une telle façon que le stock de monnaie serait exogène à nouveau. Une variante de la seconde vue est d’argumenter qu’il existe un taux d’intérêt naturel unique, déterminé par les forces côté offre de la productivité et de l’épargne, et que la banque centrale devrait définir son objectif de taux d’intérêt de telle manière que le taux d’intérêt effectif soit égal au taux d’intérêt naturel. Il n’y a aucune alternative pour une banque centrale autre qu’évaluer le taux naturel d’intérêt et d’agir en fonction.

Au contraire, les post-keynésiens expliquent que soit le taux naturel d’intérêt n’existe pas, soit qu’il y en a une multiplicité. Avec vos mots, on peut dire que l’optique post-keynésienne est qu’une banque centrale a de la place pour les agences. J’expliquerai une fois encore que la demande agrégée importe et aura un impact sur la production potentielle, de manière à ce que le principe de rareté ne s’applique pas, même à long terme, et qu’ainsi le taux naturel d’intérêt n’est pas une construction utile, pas plus utile que le concept de taux naturel de chômage. Là maintenant, au milieu d’une crise, quel est le taux naturel ?!

PP : Intéressant. L’idée que la banque centrale doit fixer son taux d’intérêt en fonction du taux naturel m’a toujours frappé comme étant quelque part entre la divination et le mysticisme. Qu’importe, continuons avec la monnaie pour le moment. Dans le livre que vous et Godley écrivez que vous voulez « rendre à la monnaie ses attributs naturels ». Pourriez-vous expliquer ce que vous entendez par là et en quoi est-ce important ?

ML : Eh bien, comme dit précédemment, la version du manuel scolaire de la science économique néoclassique et même les modèles orthodoxes sophistiqués partent du principe que la monnaie est fixe et exogène. Notre vision est que la monnaie est un tampon.

Comme dit précédemment, les variations dans le revenu et les dépenses de consommation des ménages seront absorbées par les fluctuations des soldes de notre compte en banque ; on pourrait argumenter que ces fluctuations des soldes en monnaie des ménages seront exactement compensés par des fluctuations inverses des comptes en banques des entreprises ; mais il est également possible que les entreprises endettées auprès des banques utiliseront le procédé de ventes supplémentaires ou inattendues pour réduire leur soldes de passif auprès des banques, et ainsi ces fluctuations mèneront effectivement mèneront effectivement à des fluctuations dans le stock de monnaie. Aussi ce que nous professons est que la banque centrale ne peut pas contrôler le stock de monnaie, tandis qu’elle peut agir pour contrôler une gamme de taux d’intérêt.

Plus encore, parce que nous magnifions la cohérence comptable, nous soulignons le fait que la monnaie comme actif doit avoir une contrepartie au passif, quelque chose qui est difficile à maintenir si vous supposez que le stock de monnaie est une variable exogène.

Article original sur Naked Capitalism, traduit par mes soins. Vous pouvez trouver l’essentiel du système d’ensemble de Wynne Godley, un précurseur du néochartalisme, dans 4. Le commerce extérieur. Voici le lien vers la deuxième partie.

7 Commentaires

Classé dans Compléments d'enquête

Ça commence à venir

Depuis toujours, les néochartalistes expliquent la nocivité de l’austérité, et ils sont les seuls à comprendre vraiment pourquoi, car eux seuls comprennent que c’est la dépense gouvernementale qui crée la monnaie souveraine au sens strict, et que la taxer ne fait que la détruire (cf par exemple les travaux de Kelton disciple de Wray, ou encore cette réflexion « de bon sens » sur l’inutilité des surplus budgétaires). Nous l’expliquons par les nécessités comptables des soldes sectoriels, et c’est un point de vue qui a été longuement élaboré dans toute la littérature néochartaliste, par exemple dans ce billet du professeur Mitchell.

Mais non, nos « élites » sont beaucoup plus futées que cela et savent comment retirer de l’argent du privé sans le mener à la récession. Comment ? Mystère, ils sont peu diserts et ne jettent guère que quelques pistes. Mais ils sont catégoriques, à l’instar de notre ex-ministre (de l’économie,) des finances (et de l’industrie) et présentement directrice du FMI Christine Lagarde :

[L’austérité permet de] rétablir la confiance et remettre l’économie sur le chemin de la croissance et de l’emploi

C’est la vieille théorie de l’équivalence ricardienne : prétendument, parce que l’État « doit se financer », il lui faudrait taxer à l’avenir pour rembourser les emprunts présents, et les citoyens anticipant ces futures taxes, ils thésauriseraient à l’avance pour payer ce montant à rembourser par l’État, annulant tout effet de relance budgétaire. Un vrai conte de fée (ou de sorcière).
Qui sont donc ces néochartalistes qui prétendent depuis le début que ce « remède » est à l’économie, ce que la saignée moyenâgeuse est à la médecine ? Des avant-gardistes visionnaires :

Ainsi, au deuxième trimestre, l’économie de la zone euro a enregistré sa plus forte contraction depuis trois ans. L’activité globale n’a cessé de s’y replier depuis le mois de septembre 2011 – à l’exception d’une légère progression au mois de janvier -, et la contraction s’est fortement accélérée au cours du deuxième trimestre. Le taux de repli moyen de l’activité globale pour le 2e trimestre affiche en effet son plus haut niveau depuis trois ans.

L’Allemagne n’est pas épargnée

Les néochartalistes prédisaient depuis toujours une récession, les autres le plus souvent se tâtaient et attendaient des signaux toujours plus évidents pour se prononcer, et nos élites restaient entêtées dans l’austérité. Nous voilà une énième fois fixés. Bonne nouvelle, ça fait progresser le débat qui, tout comme il fait son trou aux États-Unis, a déjà largement convaincu la base, plus pragmatique, et remontent les filières universitaires, comme ici :

La perspective d’une dégradation de leur note [dont l’importance est toute relative] paralyse les dirigeants européens en mal d’audace économique et qui voient en la surenchère des plans de rigueur, associés à une déréglementation sociale, leur seule planche de salut économique.
Le contentement immédiat des marchés prime sur toute stratégie de croissance à moyen ou long terme, et la sauvegarde du capital confiance que les agences de notation fondent en tel ou tel État membre de la zone euro les pousse à fermer les yeux sur les risques économiques et politiques, non moins réels, d’une restriction budgétaire accompagnée d’une déréglementation du marché du travail.
Dans un contexte où une récession chasse l’autre avant même que la croissance ait pu repartir, les enseignements de la crise de 2008 semblent oubliés. La surenchère des plans d’austérité en a rapidement éclipsé une autre : celle de l’automne 2008 où les chefs d’État et de gouvernement de la zone euro se répandaient en déclarations de bonne volonté sur les thèmes de la régulation des marchés financiers.
[…]
Devant l’échec de l’austérité européenne, l’Europe souhaiterait enfin s’engager sur les chemins de la croissance. Cependant, elle semble vouloir faire le choix d’une relance par la politique de l’offre [par opposition à la demande : on peut supposer que l’activité manque parce qu’on n’offre pas de la produire, ou alors parce qu’on en demande pas à l’acheter, parce qu’on rechigne à travailler, ou parce qu’on n’a pas l’argent pour la payer. L’opposition entre les deux est stérile : toutes deux peuvent être vraies tour à tour voire simultanément], fondé sur ces postulats que l’assainissement comptable de l’État et que la déréglementation du marché du travail sont les conditions sine qua non à la reprise d’une croissance durable.
Or la récession qui gagne l’Espagne et le Royaume-Uni montre que ces postulats ne fonctionnent pas. La précarité ne peut pas garantir une croissance forte. La rigueur est incompatible avec le redémarrage de l’activité économique.

Petit à petit, on reparcourt le cheminement intellectuel qui avait amené à Keynes et sa relance budgétaire (contrairement aux désastreux plans façon Lagarde de Laval, et surtout de Brüning celui qui a propulsé Hitler au pouvoir), puis de Abba Lerner qui comprit que le déficit qui renfloue le privé pendant la récession est le même que celui qui finance la croissance lorsque le privé retrouve ses couleurs. L’auteur précédemment cité n’en est pas encore là et il ajoute :

Naturellement, la réduction des déficits budgétaires à moyen terme est indispensable. Les États ne peuvent conserver indéfiniment des taux d’endettement élevés au point que la charge de la dette se hisse parmi leurs premiers postes de dépenses budgétaires. Mais la réduction des déficits ne peut être mise en œuvre efficacement que dans un contexte de croissance solide et stable.

Alors, Michal Kalecki, et même Milton Friedman comprenaient la nécessité du déficit suivant librement les besoins de l’économie, plutôt qu’une analogie complètement hors de propos avec un budget de ménage. Bref, comprendre le chartalisme, qu’un émetteur de la monnaie ne fonctionne pas comme un utilisateur de cette monnaie, chose qu’Adam Smith avait comprise en passant, bien qu’il n’ait pas été suivi sur ce point.

C’est fou ce qu’on apprend vite ! Voici un passage à méditer de Keynes sur la manie de l’austérité chez l’élite :

Dans l’Économie Ricardienne, qui est à la base de tout ce qui a été enseigné depuis plus d’un siècle, l’idée qu’on a le droit de négliger la fonction de la demande globale est fondamentale. À vrai dire, la thèse de Ricardo que la demande effective* ne peut être insuffisante avait vivement été combattue par Malthus, mais sans succès. Car faute d’expliquer (si ce n’est par les faits d’observation courante) comment et pourquoi la demande effective pouvait être insuffisante, Malthus n’est pas parvenu à fournir une thèse capable de remplacer celle qu’il attaquait ; et Ricardo conquit l’Angleterre aussi complètement que la Sainte Inquisition avait conquis l’Espagne. Non seulement sa théorie fut acceptée par la Cité, les hommes d’État et l’Université, mais toute controverse s’arrêta, l’autre conception tomba dans l’oubli le plus complet et cessa même d’être discutée. La grande énigme de la demande effective, à laquelle Malthus s’était attaqué, disparut de la littérature économique. On ne la trouve même pas mentionnée une seule fois dans toute l’œuvre de Marshall, d’Edgeworth et du professeur Pigou, qui ont donné à la théorie classique sa forme la plus accomplie. Elle n’a pu survivre qu’à la dérobée, sous le manteau et dans la pénombre de Karl Marx, de Silvio Gesell et du Major Douglas.
Une victoire aussi décisive que celle de Ricardo a quelque chose de singulier et de mystérieux. Elle ne peut s’expliquer que par un ensemble de sympathies entre sa doctrine et le milieu où elle a été lancée. Le fait qu’elle aboutissait à des conclusions tout à fait différentes de celles qu’attendait le public profane ajoutait, semble-t-il, à son prestige intellectuel. Que son enseignement, appliqué aux faits, fût austère et souvent désagréable lui conférait de la grandeur morale. Qu’elle fût apte à supporter une superstructure logique, vaste et cohérente, lui donnait de l’éclat. Qu’elle présentât beaucoup d’injustices sociales et de cruautés apparentes comme des incidents inévitables dans la marche du progrès, et les efforts destinés à modifier cet état de choses comme de nature à faire en définitive plus de mal que de bien, la recommandait à l’autorité. Qu’elle fournît certaines justifications aux libres activités du capitalisme individuel, lui valait l’appui des forces sociales dominantes groupées derrière l’autorité.
Jusqu’à une date récente la doctrine elle-même n’a jamais été contestée par les économistes orthodoxes, mais son inaptitude remarquable à servir à la prédiction scientifique a fini par diminuer grandement le prestige de ses adeptes. Car depuis Malthus les économistes professionnels paraissent avoir été insensibles au désaccord entre les conclusions de leur théorie et les faits d’observation. Le public au contraire n’a pas manqué de relever ce désaccord et c’est ce qui explique sa répugnance croissante à accorder aux économistes le tribut de respect qu’il alloue aux autres catégories de savants dont les conclusions théoriques sont confirmées par l’expérience, chaque fois qu’elles sont appliquées aux faits.
Quant au fameux optimisme de la théorie économique traditionnelle, optimisme en raison duquel on a fini par considérer les économistes comme des Candide, qui, ayant abandonné le monde pour cultiver leur jardin, enseignent que tout est pour le mieux dans le meilleur des mondes possibles pourvu qu’on le laisse aller tout seul, il a pour origine, selon nous, la méconnaissance de l’obstacle qui peut être opposé à la prospérité par l’insuffisance de la demande effective. Dans une société qui fonctionnerait conformément aux postulats classiques, il y aurait évidemment une tendance naturelle à un emploi optimum des ressources productives. Il se peut que la théorie classique décrive la manière dont nous aimerions que notre économie se comportât. Mais supposer qu’elle se comporte réellement ainsi, c’est supposer toutes les difficultés résolues.

KEYNES John Maynard, théorie générale de l’emploi, de l’intérêt et de la monnaie, Petite Bibliothèque Payot, Paris, 1979 (1936), 382 p., p. 56-57

9 Commentaires

Classé dans En vrac

Austérité fiscale – la dernière généralisation fallacieuse

Traduction par mes soins de Fiscal Austerity – the newest fallacy of composition de William Mitchell, professeur d’économie à l’Université de Newcastle en Australie.

Les origines de la macroéconomie remontent à la reconnaissance que l’approche de la science économique dominante, quant à l’agrégation, fut éviscérée par le concept de Généralisation Fallacieuse (« Fallacy of Composition »), erreur de logique survenant en « inférant qu’une propriété est vraie pour l’ensemble par le fait qu’elle est vraie pour tout ou partie des éléments de l’ensemble ». Ainsi la généralisation fallacieuse se réfère aux situations où des actions logiques individuellement deviennent irrationnelles collectivement. Cette erreur est des plus communes dans les raisonnements des macroéconomistes dominants et est utile pour saper leurs propositions politiques. L’actuel passage en force de l’austérité à travers le monde est un énième exemple flagrant de ce type de raisonnement faussé. Le fait même que l’austérité est promue à grande échelle générera les conditions de son échec comme stratégie de croissance. Nous n’apprenons jamais vraiment.

Les origines de cette erreur logique reposent dans le développement historique de la science économique dominante. Elle s’occupait largement de la microéoconomie et commençait ses raisonnements a priori dans la perspective d’un individu atome. Le consommateur seul ou l’entreprise seule. Je n’irai pas ici dans les détails, mais ce corpus théorique rencontra vite de graves difficultés avec le dénommé Problème d’Agrégation (Aggregation Problem).

Ainsi, pour affirmer des choses sur l’industrie, les marchés ou l’économie dans son ensemble, l’école dominante devait agréger leurs analyses individualistes. Bien sûr cela s’avéra impossible en utilisant n’importe quelle base rationnelle et ainsi ils maquillèrent le problème et supposèrent un « ménage représentatif » comme étant le côté de la demande d’un marché spécifique et une « entreprise représentative » comme étant le côté offre. Ensemble, ils vendent et achètent un « produit composé ».

Le maquillage intervient parce que ce tour de passe-passe transpose les principes applicables aux individus jusqu’au composé ou agrégé.

Avant les années 1930, il n’y avait pas de discipline séparée appelée macroéconomie. La théorie dominante – elle l’est encore aujourd’hui – considérait la macroéconomie comme étant l’agrégat des individus. Donc l’entreprise et le ménage représentatifs étaient ainsi simplement devenus plus gros mais les principes comportementaux qui étaient utilisés pour l’analyse étaient ceux appliqués au niveau individuel.

Par là-même, toute l’économie est perçue comme étant simplement comme une entreprise ou un ménage seul. Il s’ensuit que des changements de comportements ou d’environnements qui peuvent bénéficier à l’individu ou à l’entreprise sont automatiquement proclamés profitables à l’économie dans son ensemble.

L’erreur fondamentale de raisonnement qui survient lorsqu’on essaie d’appliquer au niveau macro une logique qui pourrait fonctionner au niveau micro est appelé généralisation fallacieuse. Les économistes néoclassiques ( précurseurs des néolibéraux contemporains) ne comprenaient pas le piège de la généralisation fallacieuse et exhortaient à réduire les dépenses publiques et les salaires au plus fort de la Grande Dépression.

Keynes mena le combat contre l’école dominante en exposant plusieurs généralisations fallacieuses. Bien que ces erreurs abondent dans l’école macroéconomique dominante, il y en a deux particulièrement fameuses dans la pensée macroéconomique : a) le paradoxe de l’épargne ; et b) la résolution du chômage par réduction des salaires.

Lors du premier semestre d’un cours décent de macroéconomie, les étudiants apprennent le paradoxe de l’épargne – où une vertu individuelle peut devenir un vice public. Lorsque les consommateurs essaient en masse d’épargner plus et que rien ne remplace la consommation perdue, tout le monde souffre parce que le revenu national chute (puisque le niveau de production réagit à la baisse de la consommation) et le chômage monte.

Le paradoxe de l’épargne nous dit que ce qui s’applique au niveau microéconomique  (la capacité d’accroître son épargne si on est suffisamment discipliné) ne s’applique pas au niveau macro (si tout le monde épargne de la demande globale, alors, on réduit la production et les revenus sauf intervention du gouvernement). L’économie plongerait même en récession.

En définitive, les revenus chuteraient et les individus seraient empêchés d’accroître leur épargne au total (parce que l’épargne est en fonction du revenu). Ce qui fonctionne pour l’un ne fonctionnera pas pour tous. C’est cela que l’école dominante occulte.

La causalité reflète la compréhension basique que la production et le revenu sont fonctions de la dépense globale (demande) et des ajustements dans la seconde enclenchent des changements dans les premiers. Il est même possible que l’épargne totale diminue en termes absolus lorsque tous les individus essaient d’épargner plus parce que les ajustements par les revenus sont très brutaux.

Keynes et d’autres considérèrent que les généralisations fallacieuses tel le paradoxe de l’épargne donnent un excellent argument pour considérer a priori l’étude de la macroéconomie comme discipline séparée. Comme écrit précédemment, jusqu’alors, les néoclassiques (l’école dominante moderne) a ignoré les caractéristiques particulières de la macroéconomie qui requéraient qu’elle soit étudiée séparément.

Ils supposèrent qu’on pouvait simplement empiler les relations microéconomiques (l’individu ajoute à un segment du marché qui ajoute à l’industrie qui ajoute à l’économie). Ainsi l’entreprise, le consommateur, ou l’industrie représentatif affichait le même comportement et les mêmes contraintes que les sous-éléments individuels. Mais Keynes et d’autres démontrèrent que l’école dominante n’avait pas de théorie de l’agrégation parce qu’elle ne pouvait pas résoudre ces problèmes de généralisations fallacieuses.

Comme elle supposait simplement que ce qui était vrai pour un individu serait vrai pour tous les individus. Cela amena les opposants à l’école dominante à souligner les plus importantes généralisations fallacieuses de la pensée dominante – leurs tentatives de passer du particulier au général échouèrent en raison des différentes contraintes que l’analyse de niveau macroéconomique appelle.

Paul Krugman l’a saisi de cette manière dans son blog du New York Times Comment les consommateurs capitulent :

… un des points culminants du semestre, si vous êtes un enseignant en introduction à la macroéconomie, survient lorsque vous expliquez comment la vertu individuelle peut être le vice public, comment les tentatives par les consommateurs de faire la bonne chose en épargnant plus peut appauvrir tout le monde. La clé est que si les consommateurs réduisent leur dépense, et que rien ne vient la remplacer, l’économie glissera dans la récession, réduisant le revenu de tous. En fait, le revenu des consommateurs peut même baisser plus que leur dépense, de manière à ce que leurs tentatives d’épargner plus se retournent contre eux – une possibilité connue par le nom de paradoxe de l’épargne.

L’expression paradoxe de l’épargne s’invita dans la nomenclature pendant la Grande Dépression lorsque Keynes et d’autres virent ce problème particulier donner un bon argument pour que le gouvernement dépense un déficit public afin de remplacer la consommation perdue lorsque le secteur non-gouvernemental cherche à accroître son épargne.

Là réside le rôle crucial des déficits budgétaires – financer le désir privé d’épargne. Par conséquent, l’économie nationale peut produire un certain volume de biens et de services à tout moment si elle emploie toutes les ressources disponibles (c’est-à-dire un chômage inférieur à 2 % et pas de sous-emploi). Cette production génère un revenu qui peut être dépensé ou épargné.

Si le secteur privé désire épargner, par exemple, 10 pour 100 $ qu’il reçoit alors ces 10 $ sont perdus pour l’ensemble des dépenses. Si rien d’autres n’advient, des stocks invendus surgiront et les entreprises commenceront à licencier des employés parce que le niveau de production est trop élevé relativement à cette demande. Les entreprises projettent la demande attendue et prennent leurs décisions de production sur ce qu’elles pensent pouvoir vendre dans les périodes à venir.

Le déclin de la croissance économique réduit alors le revenu national qui à son tour réduit l’épargne, étant donné que le premier est une fonction positive du revenu national total.

Mais si l’économie veut se maintenir au plein emploi, toute la production doit être vendue. Sur ce vient le gouvernement. C’est le seul secteur qui peut par une dépense nette de 10 $ pour chaque 100 $ venir combler le « manque de dépense » occasionné par l’épargne. Toute la production est vendue et les entreprises sont heureuses de retenir l’emploi à des niveaux créant cette production. Ce système est ce que les économistes appellent un « équilibre de plein emploi ».

Cependant, notez ce qui est arrivé. La dépense nette par le gouvernement (le déficit) ratifie les décisions d’épargne du secteur privé. Le déficit budgétaire maintient la demande globale assurant le plein emploi et le revenu national en résultant génère le niveau d’épargne désiré. Ainsi le déficit budgétaire finance l’épargne privée quotidiennement.

Il n’y a donc pas de problème particulier pour l’économie lorsque les ménages veulent accroître leur épargne. La solution ne repose pas sur une rapide reprise de l’investissement privé, bien qu’une accélération de la formation de capital améliorerait le rythme de la reprise. Aussi longtemps que le secteur gouvernemental « finance » ce comportement d’augmentation de l’épargne de la part des ménages, la croissance économique peut se poursuivre et le paradoxe de l’épargne peut être compensé. La dépense nette en hausse favorise la croissance des revenus et de l’emploi, qui se combinent pour générer le capacité d’épargne désirée par les ménages. Gagnant-gagnant.

En connaissant l’importance de la généralisation fallacieuse dans la macroéconomie dominante de l’époque, elle encaissa un coup terrible pour sa crédibilité. Comme notre mémoire est courte. Comment ces idées dominantes qui furent discréditées si méticuleusement à l’époque ont été capables de se réaffirmer comme le discours dominant est une autre histoire (aux profondeurs abyssales).

L’autre généralisation fallacieuse majeure concerne la solution de l’école dominante contre le chômage. La macroéconomie a émergé de l’échec de la science macroéconomique dominante à conceptualiser des problèmes à l’échelle de l’économie entière – en particulier, le problème du chômage de masse. Cf mon billet – What causes mass unemployment? – pour en savoir plus à ce sujet.

Marx l’avait déjà compris et vous voudrez peut-être lire la Théorie du Surplus de la valeur où il discute du problème de la réalisation lorsqu’il y a du chômage. À mes yeux, Marx fut le premier à réellement comprendre la notion de demande effective – dans sa distinction entre la demande notionnelle pour un bien (un désir) et la demande effective (celle qui est accompagnée d’argent).

Cette distinction, bien sûr, était la base des travaux de Keynes et des débats subséquents dans les années 1960 lorsque Clower et Axel Leijonhufvud ont démoli les tentatives de l’école dominante de saper la contribution de Keynes en avançant une compréhension monétaire sophistiquée de sa Théorie Générale.

Le fait est qu’avant cela l’école dominante échouait à comprendre ce qui arrive à un individu n’arrivera pas à tous les individus s’ils tentent la même chose. En terme de solution au chômage, elle croyait qu’une entreprise pouvait réduire ses coûts en abaissant les salaires de ses employés. Cependant ils échouèrent à voir que si toutes les entreprises font la même chose, la dépense totale chuterait brutalement et l’emploi aussi. Une fois encore, essayer de raisonner au niveau du système sur la base de l’expérience individuelle échoue le plus souvent.

Les salaires sont à la fois un coût et un revenu. L’école dominante ignore le côté revenu de la négociation salariale. Le problème technique vient de la trompeuse supposition que l’offre agrégée et la demande agrégée sont mutuellement indépendantes. C’est une présupposition standard de la science économique dominante et elle est clairement fausse.

Le chômage de masse apparaît lorsqu’il n’y a pas assez d’emplois et d’heures de travail générés par l’économie pour pleinement employer toute la population désireuse de travailler. Et la raison en est qu’il y a une insuffisante dépense agrégée dont la dépense nette gouvernementale est l’une des sources.

La réponse dominante erronée au chômage persistant qui obère la plupart des économies depuis les trois dernières décennies est d’invoquer des mesures du côté de l’offre – réduction des salaires, des tests d’activité plus stricts pour bénéficier des allocations de solidarité, des programmes sans fin de formation. Mais cette approche politique, qui a dominé la période néo-libérale et reflète leur focalisation sur l’individuel, est une proie facile pour le problème de la généralisation fallacieuse.

Ils méprennent un échec systémique pour un échec individuel. Vous ne pouvez pas chercher des emplois qui ne sont pas là. La principale raison faussant l’approche par le côté de l’offre est qu’elle échoue à reconnaître que le chômage se lève lorsqu’il n’y a pas assez d’emplois créés pour satisfaire les préférences de l’offre volontaire de travail. Les recherches sont claires : brasser les gens à travers des programmes d’entraînement déconnectés de l’environnement du travail salarié est un gaspillage de temps et de ressources, et démoralise les victimes de ce procédé – les chômeurs.

Étude de cas : la parabole des 100 chiens et 95 os

Imaginez une petite communauté de 100 chiens. Chaque matin ils vont déterrer des os dans le jardin. Si assez d’os pour tous y sont enterrés alors tous les chiens parviendront à réussir leur quête quelque soit leur niveau de rapidité et de dextérité.

Maintenant imaginez qu’un jour les 100 chiens se mettent à chercher dans le jardin comme d’habitude mais découvrent qu’il n’y a que 95 os enterrés.

Certains limiers particulièrement fins ont déterré deux os comme d’habitude pendant que d’autres n’en déterrent qu’un habituellement. Mais, par construction comptable, il y a au moins 5 chiens qui reviendront sans os à la niche.

Maintenant imaginez que le gouvernement décide que c’est intenable et que ce sont les talents et la motivation des chiens sans os qui sont le problème. Ils ne sont pas assez doués.

Aussi toute une palette de psychologues pour chiens et de dresseurs est appelée pour travailler sur les capacités et les attitudes des chiens sans os. Ces chiens sont évalués et assignés à des agents de suivis. On leur dit que s’ils ne s’entraînent pas ils perdront leur gamelle nocturne que le gouvernement leur donne lorsqu’ils n’ont pas d’os. Ils se sentent découragés.

De toute façon, après que des habiletés à courir et à creuser sont transmises aux chiens sans os, les choses commencent à changer. Chaque jour les 100 chiens vont chercher 95 os, on commence à voir des chiens différents revenir sans os. La file des sans-os semble être remélangée par les programmes d’entraînement.

Toutefois, pour n’importe quel jour, il y a toujours 100 chiens courant sur le jardin et seulement 95 os enterrés là !

Aux États-Unis il y a 90 os pour 100 chiens et en Espagne 80 os pour 100 chiens !
Le fait est que les généralisations fallacieuses pullulent dans les raisonnements de la science macroéconomique dominante et ont conduit à des décisions politiques très malencontreuses par le passé.

Le sophisme du gouvernement bon père de famille

Une autre source majeure d’erreur de raisonnement dans les théories macroéconomiques dominantes qui mène le bal en faveur de l’austérité est l’analogie trompeuse entre un ménage et le budget du gouvernement. J’y ai souvent répondu.

Dans un système à monnaie fiduciaire, un gouvernement souverain n’est jamais contraint par ses revenus parce qu’il dispose du monopole d’émission de la monnaie. Mais les ménages utilisent cette monnaie et sont toujours financièrement contraints. C’est une différence fondamentale.

Mon ami et parfois coauteur Randy Wray a écrit un très intéressant billet l’année dernière intitulé – Teaching the Fallacy of Composition: The Federal Budget Deficit – où il traite de ces problèmes dans le détail.

Il note que l’analogie du budget gouvernemental avec celui d’un ménage « ignore l’impact qu’a le déficit budgétaire sur les autres secteurs de l’économie ». Il utilise l’approche des soldes sectoriels pour montre que :

Au niveau global, la dépense en dollar de chacun des trois secteurs combinés doit être égal au revenu reçu par les trois secteurs combinés. La dépense globale égale le revenu global. Mais il n’y a aucune raison pour qu’un secteur dépense exactement son revenu. Un secteur peut dégager un surplus (dépenser moins que son revenu) aussi longtemps qu’un autre a un déficit (dépenser plus que son revenu).

Et, « si nous avons un secteur étranger à l’équilibre, il n’y a aucun moyen pour que le secteur privé dans son ensemble n’épargne sauf si le gouvernement opère un déficit. Sans déficit gouvernemental, il n’y aurait pas d’épargne privée. Bien sûr, un individu peut dépenser moins que son revenu, mais un autre aura à dépenser plus que son propre revenu ».

Donc la relation dépense/revenu entre les trois secteurs peut être exprimée sous la forme du cadre comptable des soldes sectoriels se contraignant réciproquement.

Cela est très pertinent quant à la manière dont nous pensons à l’actuelle campagne pour l’austérité.

Nous savons que si le secteur gouvernemental essaie d’opérer des surplus lorsqu’il y a un déficit extérieur et que le secteur privé domestique veut épargner, les conséquences en seront mauvaises. La ponction fiscale réduit le pouvoir d’achat, ce qui entame la croissance des revenus et de la production, et ultimement force le secteur privé domestique à diminuer son épargne.

Le seul moyen d’annuler les dégâts survenant de cette ponction fiscale est d’avoir un surplus extérieur (exportations nettes) ajoutant de la dépense à l’économie locale et soutenant la croissance des revenus et le désire d’épargner. C’est la situation norvégienne.

Ainsi nous savons que si le secteur privé domestique désire épargner globalement, agit en conformité et que la nation bénéficie d’un déficit extérieur, alors le seul moyen de soutenir cela est un flux continu de déficits publics. Ils doivent être permanents et dimensionnés pour satisfaire le manque de dépense laissé par les deux autres secteurs.

Plus encore, c’est le seul moyen de réduire le niveau d’endettement du secteur privé lorsque le solde extérieur est en déficit.

Et cela me mène à l’idée que la campagne pour l’austérité est elle-même tombée dans le piège de la généralisation fallacieuse – aussi dévastatrice que les autres qui pullulent à travers la pensée macroéconomique dominante.

L’austérité comme généralisation fallacieuse

Le FMI a promu des stratégies de croissance orientées vers l’exportation dans les pays émergents depuis des années. Parfois fondées sur l’industrie (Corée du Sud, Taïwan, Hong Kong et Singapour) ou d’autres fois fondées sur les récoltes agricoles ou l’extraction de ressources à l’exportation. Tandis que les premières stratégies d’exportations industrielles des tigres asiatiques (qui précédèrent l’offensive des programmes d’ajustement structurel à partir de la fin des années 1970) furent des succès les recherches montrent très clairement que la plupart des nations pauvres ont régressé avec ces programmes.

Dans le cas du commerce, la généralisation fallacieuse consiste en une contrainte à l’« empilement » quant à la capacité des nations à exporter simultanément des biens sur le marché extérieur – ce qui revient pour la plupart des nations à pénétrer les mêmes marchés.

Le FMI et maintenant les fous de l’austérité invoquent leurs arguments habituels. Premièrement, il n’y a aucune contrainte du côté de la demande parce que le nations riches croîtront suffisamment vite pour supporter le volume accru des importations et éviter les engorgements déprimant les prix des exportations. Deuxièmement, les nations pauvres commenceront à commercer entre elles. Troisièmement, les nations pauvres introduisent continument des techniques de production intensives en capital et feront de la place pour les exportations intensives en main-d’œuvre d’autres nations.

Lorsqu’on lit les nombreuses études sur ce sujet, on découvre qu’en réalité les contraintes par la demande survenant par la concurrence sur les marchés limités à l’exportation sont fortes. Plus encore, les marchés engorgés à l’exportation voient leurs prix continuellement baisser pour les pays moins développés qui ont alors eu à emprunter encore plus de fonds au FMI pour joindre les deux bouts. Dans l’intervalle, ces nations minent leur agriculture de subsistance pour en faire des cultures d’exportations et les gens ont faim.

Mais les plans d’austérité actuels ont quelques similitudes avec la stratégie de développement du FMI, ce qui n’est aucunement une surprise étant donné que le FMI a écrit la récente réponse du G20 endossant les programmes d’austérité.

La magazine The Economist (1er juillet 2010) avait un intéressant article – Austerity alarm – où ils ont écrit que « Les deux camps opposés du débat austérité c. stimulus exagèrent, mais le lobby de l’austérité est plus dangereux ». C’était un retournement pour l’analyse traditionnellement néolibérale qu’on lit dans ce magazine.

The Economist écrit :

… le monde développé semble parti pour un ajustement fiscal collectif pesant 1 % de son PIB annuel total l’année prochaine, la plus grosse contraction budgétaire synchronisée depuis au moins quatre décennies.

Pour les critiques keynésiens le basculement vers l’austérité est une bourde monumentale … [qui] … poussera l’économie mondial dans la dépression. Avec le chômage élevé, une production très en dessous de son potentiel, une dépense privée encore fragile et des taux d’intérêts proches de zéro … le stimulus fiscal demeure un soutien essentiel pour l’économie et des réductions de déficits maintenant appelleraient la stagnation et la déflation.

… les partisans de … l’austérité croient que c’est nécessaire et approprié : la dépense déficitaire ne peut se poursuivre éternellement et en stimulant la confiance des entreprises et des ménages et diminuant la prime de risque sur la dette gouvernementale, une consolidation fiscale bien peut en vérité stimuler la croissance … l’épargne fiscale accroîtra la dépense privée en réduisant l’incertitude quant à la politique d’imposition et à la dette gouvernementales.

Il est clair que les terroristes du déficit ne spécifient jamais comment ils répondraient à cette question : Si le gouvernement prend x pour cent de la dépense globale, qu’est-ce qui les remplacera ? Mais, plus encore, le remplacement doit ajouter plus que ce que le gouvernement ôte pour que la croissance continue.

Mis à part les allusions confuses qu’une sorte d’équivalence ricardienne inversée entrerait en action – ainsi les consommateurs et les entreprises dépenseraient soudainement le liquide qu’ils auraient épargné pour payer les taxes supplémentaires anticipée une fois qu’ils réalisent que les déficits chutent – il n’y a que très peu d’arguments consistants présentés pour étayer le choix de l’austérité. Lisez, je vous prie, mon billet – Pushing the fantasy barrow – pour une discussion sur l’absurdité des arguments de l’équivalence ricardienne de la science macroéconomique dominante.

Dans le Wall Street Journal de la semaine dernière (1er juillet 2010), Thomas Frank a écrit que nous devons Éviter le Piège de l’Austérité (Avoiding the Austerity Trap) :

La réduction du déficit est une obsession malsaine.

Les hausses récentes du déficit fédéral ont fait trembler la classe des experts, mais ne sont pas vraiment mystérieuses. Elles sont, pour la plupart, un produit de la récession, qui a réduit les recettes fiscales, justifié les plans de sauvetages et les mesures de relance, et permis les allocations chômage et autres « stabilisateurs automatiques ».

Réglons la récession et nous réduirons le déficit finalement aussi. Le danger réel est qu’à la place nous décidions de regarder le déficit comme un problème en soi – une question quasi-morale qui doit être résolue indépendamment de la vaste économie – et que nous procédions à l’équilibre du budget nous-mêmes tout droit à nouveau dans l’ornière économique. Pour un aperçu de son fonctionnement, jetez un œil à l’Irlande anciennement prospère, où un régime sévère pour contrôler le déficit public a rendu la récession plus ou moins permanente.

L’austérité serait un choix terrible en ce moment, mais la pulsion gaffeuse démange le clergé politique ces jours-ci. Une raison à cela est que la réduction du déficit est le plus souvent un levier pour autre chose, quelques projets politiques qui doivent demeurer obscurs parce qu’ils sont trop écœurants pour être discutés ouvertement.

La lecture de cet article m’a rappelé la prose sur les déficits stratégiques. C’était une phrase du cru de David Stockman directeur du budget du président Ronald Reagan « pour décrire l’utilité de créer des manques à gagner budgétaires de long-terme pour saper le soutien politique à la dépense gouvernementale » (Source en anglais).

Il y a donc clairement des arrière-pensées politiques sous les appels à l’austérité.

Mais le meilleur argument que les fous présentent habituellement est le commerce extérieur et c’est là que nous rencontrons une autre généralisation fallacieuse dévastatrice. J’ai vu quelques papiers sortis ces mois-ci pour prétendument documenter des cas où l’austérité a conduit à la croissance. Deux pays sont souvent tenus pour exemplaires de cette approche – le Canada et la Suède dans les années 1990.

Dans les deux cas les gouvernements ont réduit leurs dépenses nettes et la croissance apparut les années suivantes. L’article de The Economist note que :

Mais dans la plupart de ces exemples les taux d’intérêt ont chuté ou la monnaie s’est dépréciée. Ces remèdes ne sont pas disponibles actuellement : les taux d’intérêts sont déjà bas et les monnaies des pays riches ne peuvent toutes se déprécier simultanément. Sans ces amortisseurs, l’austérité fiscale ne peut probablement pas stimuler la croissance.

Ainsi bien que le Canada ait pu compenser les réductions de sa dépense publique par l’amélioration du solde extérieur ainsi qu’une compétitivité accrue par des ajustement des taux de changes, cette solutions ne peut pas fonctionner si tous les pays s’engagent dans de l’austérité. Là réside la généralisation fallacieuse.

En ce moment, l’Irlande a montré un sursaut du PIB tiré par la croissance britannique et américaine. Mais ces deux nations ralentissent dorénavant en introduisant des politiques d’austérité que ce soit explicitement ou implicitement par l’expiration des mesures de stimulation.

Ainsi la stratégie de croissance par l’exportation ne peut s’appliquer à toutes les nations qui réduisent leurs demandes domestiques.

Il est également ironique que les interventions fiscales les plus importantes (Chine) ont procuré quelque croissance globale. Et même cette injection de dépense sera probablement réduite l’année prochaine.

Le résultat est que vous obtenez la stratégie politique typique de l’UEM – écorcher l’économie domestique en dégradant les allocations, les salaires et les conditions de travail – et espérer une croissance extérieure. Un pays pourrait s’en sortir ainsi mais pas tous.

La seule manière fiable de prévenir une généralisation fallacieuse comme celle-là est de maintenir un soutien fiscal adéquat par la dépense pendant que le secteur privé réduit son endettement excessif par l’épargne.

Cette stratégie est également la meilleure pour stimuler les exportations parce que la croissance du revenu mondial sera plus forte et que les importations sont en fonction de la croissance du PIB.

Les austérichiens [NdT : mot-valise avec autrichiens, une école ultra-libérale, et austérité] ne sapent pas seulement les droits et le bien-être des citoyens mais sapent également  la source des revenus de l’exportation – la demande agrégée domestique.

Digression : La banque centrale australienne maintient ses taux d’intérêt

Aujourd’hui la Reserve Bank of Australia (RBA) a décidé de maintenir constants ses taux d’intérêt en Australie à 4,5 pour cent. On peut lire le Communiqué pour comprendre pourquoi. En gros, ils deviennent un peu pessimistes quant à l’environnement extérieur.

J’aurais préféré une réduction des taux !

Conclusion

Ce sera tout pour aujourd’hui !

Un peu étourdi, j’avais cru que cet article était tout récent, et ne me suis rendu compte de sa date exacte (6 juillet 2010) qu’après avoir largement entamé la traduction. Je l’ai terminée parce que les prédictions de Mitchell se sont avérées et celles des libéraux se sont effectivement démenties, enfin parce que le débat a largement stagné depuis, d’où ma méprise. Espérons que l’austérité continuera à laisser des déficits supérieurs aux critères de Maastricht, on pourrait alors éviter le pire. Mais pour la zone euro, c’est peu probable.

9 Commentaires

Classé dans En vrac

Encore une prédiction néochartaliste réussie

Suite du feuilleton comique sur les capacités de prédictions respectives de la théorie économique dominante et de la théorie néochartaliste. Juste après la perte du triple A par la France, je prédisais l’absence d’effet notable sur les capacités d’emprunts de la France. Dès le lendemain, l’immense calamité commençait à révéler sa nature de pétard mouillé. On avait répété sur toutes les ondes, et les masses avait finit par le croire, que la perte du triple A était une catastrophe, une sorte de point de non-retour vers la faillite. Il nous était promis une dette toujours plus chère à faire rouler, donc que le franchissement d’un hypothétique seuil d’insolvabilité de l’État serait précipité. Aujourd’hui, quatre mois plus tard donc, voici un petit point d’étape par le Figaro :

La France n’a jamais emprunté à des taux aussi bas
(…) Pas plus que la perspective de l’arrivée de la gauche au pouvoir, la perte du AAA, mi-janvier, aura également été sans impact. Sur les 5 premiers mois de l’année, l’AFT a émis à un taux moyen de 2,25%, contre 2,53% en 2010 et 2,80% en 2011. Avec les adjudications de mercredi, la France a d’ores et déjà réalisé 54% de son programme d’émissions 2012 fixé à 178 milliards d’euros.

Nullement une surprise pour l’observateur attentif, les États-Unis avaient vu les intérêts de leur dette publique s’effondrer, de même que le Royaume-Uni, et le Japon également depuis plus de deux décennies déjà…

Rendement des bons du Trésor du Royaume-Uni à 10 ans

Taux des bons du Trésor japonais

Le plus drôle, c’est que ce qui installe la chute des taux est la crise elle-même ! Soit exactement le contraire de la théorie libérale qui domine les circuits médiatiques.

Pas découragé pour si peu, notre journaliste essaie d’agiter le thermomètre dans tous les sens afin qu’il montre un peu de fièvre (ah, si seulement c’était un thermomètre…) : il tente ainsi de montrer que la course à l’effondrement des taux est mené en tête par l’Allemagne, mais il doit concéder que l’écart se réduit plutôt. Mais quand les marchés cesseront-ils de laisser l’État en paix ? Lorsque l’État commet la bêtise d’interdire la création monétaire, par exemple avec les mécanismes particulièrement alambiqués de la zone euro, comme je dois le décortiquer dans un prochain billet. Mais même là, seuls les pays les plus faibles peuvent être psychologiquement pris en otage, comme je l’avais expliqué en détaillant la perte du triple A américain.

1 commentaire

Classé dans En vrac