Archives de Tag: macroéconomie

Nouvelles directions dans la théorie monétaire : Un entretien avec Marc Lavoie (1ère partie)

Marc Lavoie est professeur au Département de Science Économique de l’Université d’Ottawa. Il est l’auteur de nombreux livre d’économie post-kéynésienne. Son dernier ouvrage « Monetary Economics » écrit avec feu Wynne Gogley, est maintenant disponible en version broché sur Amazon.

Entrevue conduite par Philip Pilkington.

Philip Pilkington : Monetary Economics prend très délibérément ses distances contre le paradigme néoclassique et en même temps se propose l’ambitieux objectif de produire des modèles concis et cohérents. Aussi, commençons par le commencement : Pourquoi vous et Godley avez ressenti le besoin de vous séparer aussi implacablement du paradigme néoclassique ? Que vous en arracher de manière aussi intransigeante comme proclamée dans l’introduction de votre livre me suggère que vous et Godley l’avez trouvé déficient au niveau le plus fondamental. Pourriez-vous expliquer pourquoi il en est ainsi ?

Marc Lavoie : Tout d’abord je dois souligner que Monetary Economics était au départ un projet initié par mon co-auteur Wynne Godley au début des années 1990. Déjà dans un document publié en 1993, et par là-même écrit beaucoup plus tôt, Wynne avait annoncé la préparation d’une monographie substantielle, en collaboration avec un collègue de Cambridge. Mais bien que Wynne Godley parvint à écrire des documents de travail pour son projet de livre, il n’avait écrit qu’un brouillon plutôt squelettique du livre lui-même quand je l’ai rencontré pour la première fois à la fin de 1999. Aussi doit-il être clair que l’esprit de ce livre vient de Wynne, et qu’on pourrait dire que son corps vient de moi !

Ayant traité d’économie concrètement, par sa position au Trésor britannique jusqu’en 1970, Wynne fut convaincu que la science macroéconomique dominante n’avait tout simplement aucun sens, que ce soit le monétarisme ou le modèle keynésien standard IS/LM d’alors ; en fait il ne pouvait pas comprendre qu’une personne raisonnable, avant tout bourrage de crâne par des cours de science économique dominante, pouvait accorder la moindre crédibilité aux manuels et aux sophistiqués modèles de l’économie orthodoxe. Aussi est-il clair que Wynne souhaitait se séparer de la science économique néoclassique, et recommencer de zéro, ce qu’il fit dans une certaine mesure déjà lorsque Wynne et son collègue Francis Cripps écrivirent un livre profondément original publié en 1983, Macroeconomics. Ce livre fut écrit parce que Wynne devint convaincu que les keynésiens de toutes sortes perdaient leur guerre contre Milton Friedman et les monétaristes, parce que les keynésiens ne savient répondre que des réponses très alambiquées à des questions aussi simples que : « D’où vient l’argent ? Où va-t-il ? Comment le flux des revenus s’organisent avec la masse de monnaie ? Comment une nouvelle production est financée ? »

Notre livre Monetary Economics essaie également de fournir des réponses adéquates à ces questions. Nous nous sommes tourmentés pendant longtemps entre essayer d’engager un dialogue constructif avec nos collègues orthodoxes et d’autre part cibler un public non-orthodoxe, ou peut-être essayer d’atteindre les deux buts. À la fin, nous conclûmes qu’il était très difficile de plaire aux deux publics [NdT : Ô que oui.], et nous avons choisis de nous focaliser sur un public hétérodoxe. Dans tous les cas, j’ai passé l’essentiel de ma carrière académique à développer des vues alternatives et des modèles alternatifs de science économique — ce qui est maintenant appelé science économique hétérodoxe ; c’est la littérature que nous connaissons le mieux. Aussi nous avons fait de notre livre une contribution formelle à cette littérature plus spécifiquement comme contribution à la pensée économique post-keynésienne.

PP : Je sais que c’est une question un peu vague, mais qu’est-ce que vous et Wynne sentez être les plus fondamentales faiblesses de la théorie néoclassique/monétariste ? Dans votre livre vous magnifiez beaucoup le dynamisme et le changement, était-ce un point majeur de divorce avec l’orthodoxie ?

ML : Eh bien, c’est une question plutôt vaste ! Les critiques de l’école néoclassique, et du monétarisme de Friedman, ont écrit des douzaines de livres et des centaines de pages sur ce sujet. Pour commencer, je suppose que Wynne s’opposait aux explications basiques de l’inflation par excès de demande, où l’excès de création monétaire génère une demande globale excessive et ainsi de l’inflation. Wynne pensait que la demande de monnaie est endogène [NdT : ici, on parle d’abord de la monnaie de crédit, et non de la monnaie souveraine, l’endogénéité de la monnaie est aussi appelée passivité du crédit.], entraînée par les nécessités de l’économie, principalement par le temps pris par le processus de production, qui implique des productions intermédiaires et des produits encore invendus, dont la production doit être financée à crédit. Wynne rejetait également l’explication orthodoxe de l’inflation parce que son travail sur la théorie de la fixation des prix le conduisit à croire que les prix étaient fondés sur le coût unitaire normal, avec aucune relation claire entre une plus forte production et ce prix unitaire normal, ni entre l’augmentation de la production et un enchérissement. Ainsi toute relation qui pourrait être trouvée entre les prix et la monnaie était probablement due à une causalité inversée. En effet, Wynne n’a jamais cru au concept du taux naturel de chômage, le NAIRU [NdT : cf le très complet L’épouvantable NAIRU est toujours d’actualité], ou la courbe de Phillips associée ; et les plus sophistiquées analyses et méta-analyses économétriques lui ont donné raison.

La causalité inversée affecte également le lien entre l’investissement et l’épargne : pour les keynésiens, l’investissement induit l’épargne, alors que dans l’optique néoclassique, l’épargne permet l’investissement. L’importance de trouver la causalité correcte est claire de nos jours : un auteur vraiment néoclassique arguerait que les ménages doivent épargner plus pour fournir aux entreprises les fonds nécessaires pour qu’elles investissent ; mais si les ménages réduisent leurs dépenses de consommation, les entreprises vendront moins, pourquoi voudraient-elles investir plus ? La macroéconomie néoclassique est essentiellement centrée sur l’offre ; c’est pour nous une faiblesse fondamentale : les économies capitalistes, le plus souvent, sont menées par la demande. Elles souffrent le plus souvent d’un manque de demande effective, non d’un manque de capacité ou un un manque de force de travail. Ainsi nous nous focalisons principalement sur les variables qui déterminent la demande globale. J’avais l’habitude de penser que seules les économies avancées avaient des capacités sous-utilisées ; mais ensuite j’ai lu un livre de 1983 par Lance Taylor, montrant les caractéristiques particulières des économies moins développées et comment elles devaient être modélisées : il défendait aussi l’hypothèse de capacités sous-utilisées !

Il est également vrai comme vous le pointez que dans notre livre nous soulignons la transition depuis la position de départ vers le nouvel équilibre — c’est-à-dire que nous allons au-delà des équilibres statiques comparés, au-delà de la comparaison entre l’état de départ et l’état d’arrivé du modèle. En partie, c’est parce que les résultats à court-terme peuvent être à l’opposé de l’impact à long-terme. Un exemple : dans un de nos modèles sophistiqués, le désir des ménages d’emprunter un plus grand pourcentage de leur revenu personnel a un impact favorable sur la consommation et le PIB à court-terme, mais ça a un impact négatif sur ces deux variables à long-terme. Nous faisons cela avec des simulations ; mais bien sûr, avec des mathématiques suffisamment attrayantes, vous pouvez également le montrer avec de l’algèbre, si le modèle n’est pas excessivement complexifié.

PP : C’est une réponse impressionnament succincte à une question très générale.

Je suppose puisque nous allons aborder cette question tôt ou tard, que le moment est pourquoi pas venu de le demander puisque vous le soulever. Vous venez de dire que vous et Godley utilisez, en fait, quand même la notion d’équilibre dans votre livre. Mais je crois comprendre que vous l’utilisez d’une manière différente de celle de la théorie néoclassique. J’en ai compris que votre version de l’équilibre ne doit pas être située dans la tradition walrasienne. Peut-être pouvez-vous expliquer comment vous et Godley utilisez la notion d’équilibre dans votre livre et comment cela contraste-t-il avec l’usage néoclassique/walrasien ?

ML : Dans la tradition néoclassique, le mécanisme d’équilibrage opère à travers les prix relatifs, par la loi de l’offre et de la demande. Les prix sont supposés refléter la rareté. Mais depuis la controverse des deux Cambridge, nous savons que ça n’est pas nécessairement le cas, et nous savons depuis le milieu des années 1970 et la découverte des conditions de Sonneschein-Mantel-Debreu que les plus sophistiqués modèles d’équilibre général walrasien ne peuvent démontrer l’accomplissement de l’équilibre par les changements de prix, ce qui signifie que les changements de prix ne peuvent pas en général remettre la demande en phase avec l’offre. En effet, comme tout le monde a pu le constater avec les récentes bulles du marché des actions et de l’immobilier, les prix en hausse dans les marchés financiers, où on aurait pu penser que la loi de l’offre et de la demande s’appliqueraient, peuvent générer des quantités demandées accrues – pas réduites.

Aussi cette manière de penser doit être abandonnée. Dans la tradition de Cambridge, les prix reflètent le coût unitaire, ou plus précisément le coût unitaire normal, c’est-à-dire les coûts unitaires estimés en opérant dans des circonstances normales (à des taux normaux d’utilisation des capacités à des ratios ciblés inventaires/ventes). Où se situera le taux de profit – la différence entre le prix et le coût unitaire normal – n’est pas facile à estimer, mais plusieurs post-keynésiens expliquent que c’est une fonction du taux de croissance des ventes de l’industrie. Ainsi les prix – sauf peut-être sur les marchés financiers et certains marchés de matières premières – ne cherchent pas à égaliser l’offre et la demande. Les prix sont au contraire le moyen d’obtenir des profits suffisants pour l’expansion. Les variations de la demande de production sont absorbées par les fluctuations dans les quantités ou les taux d’utilisation des capacités, comme il était argumenté par Keynes et les keynésiens.

L’autre mécanisme d’ajustement souligné par Wynne Godley sont les fluctuations des inventaires. Les stocks des inventaires fonctionnent comme des tampons qui absorbent les fluctuations de demande ou dans la production. Lorsque la demande diminue, une hausse de l’inventaire prend le relai, et non une baisse des prix. Une des notions clés que nous essayons de magnifier dans notre livre est que tous les secteurs incorporent un tampon. Dans le cas des entreprises, les inventaires sont des tampons évident. Du côté financier, la contrepartie aux fluctuations (non-désirées) du tampon sont le fluctuations des lignes de crédit contractées par les entreprises. C’est l’existence de ces tampons qui rend l’économie relativement stable.

Pour des gens comme nous, le solde de monnaie sur nos comptes courants bancaires sont notre principal tampon. Les fluctuations de notre revenu ou de nos dépenses de consommation. Dans le cas des banques, le principal tampon est le portefeuille d’actifs sûrs et liquides dont ils disposent, et qui peuvent être acquis ou vendus. Au niveau des banques individuelles, la gestion actif-passif agirait comme un tampon. Dans le cas d’un gouvernement, leur tampon est la quantité de titres du Trésor qu’ils ont émis. Dans le cas de la banque centrale, leur tampon est le montant de dette gouvernementale qu’elles détiennent (en Amérique du nord) ou le montant d’avances qu’elles donnent au système bancaire (en Europe continentale). Dans l’eurosystème, le tampon sont les soldes Target 2 crédités ou débités à la Banque Centrale Européenne, dont tout le monde parle tant à présent. L’équilibre, en un sens beaucoup plus faible que ne le comprendraient les néoclassiques, est achevé grâce à ces tampons. Les agents économiques réagissent ensuite plus ou moins fortement aux variations de ces tampons ou dans la mesure ou ces tampons sont éloignés de possibles objectifs. Un équilibre est atteint lorsque l’objectif de tampon est accompli.

PP : Je suppose que ce vers quoi je m’avance est un peu plus fondamental maintenant. Mon sentiment – et je pense que ce fut montré dans un très célèbre article de Spiro Latsis étudiant d’Imre Lakatos – est que la pensée économique néoclassique ne laisse pas de place significative aux agences. Tout le monde fait ce qu’il est supposé faire dans ce modèle. Vous voyez, vous êtes supposé consommer selon votre utilité marginale et vous êtes supposé investir selon la productivité marginale. Mais ces modèles de vous et Godley sont ouverts, n’est-ce pas ? Je crois que c’est cela qui m’intéresse. C’est le fait que vous avez construit des modèles cohérents qui demeurent néanmoins ouverts et ne reposent pas sur une sorte de, eh bien, « métaphysique », comme Robinson l’aurait appelé… Peut-être pourriez-vous en dire quelques mots ?

ML : Il y a en effet une distinction à la mode chez les méthodologistes en économie, entre les systèmes ouverts et fermés, avec l’argument que les systèmes ouverts laissent de la place pour les agences, alors que les modèles à systèmes fermés non. Je ne me sens pas à l’aise avec cette distinction. Si j’étais économiste néoclassique, j’argumenterais que les résultats accomplis par un modèle basé sur l’utilité marginale dépendent des éléments inclus dans la fonction d’utilité ; et certaines personnes pourraient dire que nos modèles comptablement cohérents [stock-flow consistent] sont, par construction, des modèles fermés. Je me sens plus à l’aise face à l’argument  que nos modèles comptablement cohérents sont des systèmes d’ensemble, qui peuvent être ajustés pour prendre en compte différents cadres institutionnels, et qui sont fondés sur des hypothèses réalistes, avec des variables qui sont liées à des choses réelles.

En un sens, je suis d’accord avec ce que vous avez dit : l’investissement ne dépend pas de la productivité du capital ; il dépend des ventes, des taux d’utilisation des capacités, de la rentabilité, de l’apparition de nouveaux produits, et d’autres éléments, dont l’optimisme des entrepreneurs.

PP : En fait, cela m’amène à une citation de Geoff Harcourt que vous mettez dans l’introduction de votre livre. Vous citez Harcourt en disant que les anciens post-keynésiens, comme Joan Robinson, ont essayé de regarder l’économie en la segmentant et en en examinant chacune des parties séparément. Harcourt poursuit en disant que c’est cette approche que Robinson et d’autres ont estimée être un échec. Vous venez justement de dire que vos modèles dans votre livre sont des « systèmes d’ensemble ». Est-ce alors la solution aux problèmes soulevés par des approches post-keynésiennes ? Si c’est le cas, pourriez-vous esquisser les différences entre les deux approches ?

ML : Oui, je dirai que l’approche par système d’ensemble pourrait être la plus importante contribution de notre livre à la littérature post-keynésienne, et possiblement à la science économique en général. J’ai argué en quelques occasions que le Saint Graal de la pensée macroéconomique est d’intégrer l’analyse du côté réel de l’économie (production, revenu, emploi, investissement, etc.) avec le côté monétaire (crédit, dette, actifs financiers, le financement de l’activité, la conduite des banques et des autres institutions).

Lorsque j’étais étudiant en troisième cycle à Paris, tous mes enseignants parlaient de l’intégration de la sphère monétaire dans l’économie réelle ; toutefois personne ne savait comment s’y prendre. Redécouvrir les travaux de Wynne Godley en 1996, en particulier son document de travail de 1996 au Levy Institute où cette intégration était accomplie fut une vraie révélation pour moi, et je me souviens raconter à mon collègue de toujours Mario Seccareccia alors, que c’était ce que nous aurions dû faire. Dans les chapitres les plus sophistiqués Wynne et moi analysons le flux de production et de revenu, nous lions cela avec le flux de crédit et de création monétaire surgissant du secteur bancaire, et nous lions cela au stock de capital, au stock de richesse financière et au stock de dette des ménages, entreprises et gouvernement.

Au contraire, Joan Robinson, dans son livre de 1956 The Accumulation of Capital, que je considère être l’un des plus formidables livres jamais écrits, se concentre sur la production et la technologie dans les deux premiers tiers du livre, et ne discute la monnaie et le crédit que lors des derniers chapitres (que personne ou presque ne lit, étant épuisé par la lecture des analyses complexes du choix technologique des chapitres précédents). Les deux ne sont pas intégrés. La plupart des post-keynésiens firent de même, traitant séparément de la production et de la distribution du revenu dans certains documents, et traitant de la monnaie endogène et les taux d’intérêt de l’autre. Effectivement, Wynne me disait souvent combien il regrettait que Nicholas Kaldor ne prit jamais le temps ou ne trouva jamais le temps de mettre ensemble, en une synthèse, toutes ses théories.

Maintenant, je ne déclare pas qu’on devrait toujours poursuivre une analyse à l’échelle de l’ensemble du système, ou que tout le monde devrait faire des analyses comptablement cohérentes. Mais certainement certains d’entre nous doivent s’y coller pour avoir la vision d’ensemble. Dans tous les cas, je dois souligner que d’autres auteurs dans le passé ont accompli d’une manière ou d’une autre cette approche à l’échelle de l’ensemble du système de l’économie post-keynésienne, en particulier Peter Skott (1989) et Alfred Eichner (1989) dans leurs livres. Plus récemment, Peter Flaschel et ses différents coauteurs ont écrit plusieurs livres animant cette approche d’ensemble, bien qu’ils reposent trop sur des hypothèses néoclassiques à mon goût, et Peter Skott revisite ses travaux précédents en faisant à nouveau une analyse d’ensemble.

PP : En fait, vous avez mentionné l’approche endogène de la monnaie. Concentrons-nous sur cela pour l’instant. Comme vous le savez il y a eu quelques controverses sur les blogs à propos de cette théorie. J’ai trouvé qu’une part effroyable du débat entre néoclassiques et post-keynésiens – du moins lorsqu’on en arrive à la théorie monétaire – est habituellement fondé sur l’adhésion ou non à la théorie endogène de la monnaie. Je ne vous demanderai pas les détails de la théorie parce qu’elle est déjà articulée suffisamment souvent sur la toile, mais pourquoi pensez-vous que les néoclassiques lui sont si hostiles ? Et pourquoi est-ce si important pour votre cadre théorique ?

ML : Ici je ne peux dire mieux que ce qu’Alain Parguez, un professeur remplaçant à Paris quand j’y étais arrivé étudiant en troisième cycle, a professé depuis toujours : les économistes néoclassiques se fondent sur le concept de rareté. Sans le concept de rareté, il n’y a aucune pensée économique néoclassique. En rendant le stock de monnaie exogène, le concept de rareté est recouvré, même lorsqu’on discute de création monétaire. Cela rend la théorisation possible pour les économistes orthodoxes. Ainsi il y a deux sortes d’économistes néoclassiques.

Premièrement, il y a ceux qui argumentent toujours conformément aux manuels scolaires, qu’il y a une quantité donnée de monnaie là, fermement liée au montant des réserves déterminé par une banque centrale responsable ; ils sont ceux que Basil Moore a appelé les « verticalistes », et ils ont clairement perdu le contact avec la réalité. Deuxièmement, il y a des auteurs néoclassiques qui reconnaissent que le processus de création monétaire dans les systèmes financiers modernes rend le stock de monnaie endogène, mais qui voudraient que la banque centrale se conduise d’une telle façon que le stock de monnaie serait exogène à nouveau. Une variante de la seconde vue est d’argumenter qu’il existe un taux d’intérêt naturel unique, déterminé par les forces côté offre de la productivité et de l’épargne, et que la banque centrale devrait définir son objectif de taux d’intérêt de telle manière que le taux d’intérêt effectif soit égal au taux d’intérêt naturel. Il n’y a aucune alternative pour une banque centrale autre qu’évaluer le taux naturel d’intérêt et d’agir en fonction.

Au contraire, les post-keynésiens expliquent que soit le taux naturel d’intérêt n’existe pas, soit qu’il y en a une multiplicité. Avec vos mots, on peut dire que l’optique post-keynésienne est qu’une banque centrale a de la place pour les agences. J’expliquerai une fois encore que la demande agrégée importe et aura un impact sur la production potentielle, de manière à ce que le principe de rareté ne s’applique pas, même à long terme, et qu’ainsi le taux naturel d’intérêt n’est pas une construction utile, pas plus utile que le concept de taux naturel de chômage. Là maintenant, au milieu d’une crise, quel est le taux naturel ?!

PP : Intéressant. L’idée que la banque centrale doit fixer son taux d’intérêt en fonction du taux naturel m’a toujours frappé comme étant quelque part entre la divination et le mysticisme. Qu’importe, continuons avec la monnaie pour le moment. Dans le livre que vous et Godley écrivez que vous voulez « rendre à la monnaie ses attributs naturels ». Pourriez-vous expliquer ce que vous entendez par là et en quoi est-ce important ?

ML : Eh bien, comme dit précédemment, la version du manuel scolaire de la science économique néoclassique et même les modèles orthodoxes sophistiqués partent du principe que la monnaie est fixe et exogène. Notre vision est que la monnaie est un tampon.

Comme dit précédemment, les variations dans le revenu et les dépenses de consommation des ménages seront absorbées par les fluctuations des soldes de notre compte en banque ; on pourrait argumenter que ces fluctuations des soldes en monnaie des ménages seront exactement compensés par des fluctuations inverses des comptes en banques des entreprises ; mais il est également possible que les entreprises endettées auprès des banques utiliseront le procédé de ventes supplémentaires ou inattendues pour réduire leur soldes de passif auprès des banques, et ainsi ces fluctuations mèneront effectivement mèneront effectivement à des fluctuations dans le stock de monnaie. Aussi ce que nous professons est que la banque centrale ne peut pas contrôler le stock de monnaie, tandis qu’elle peut agir pour contrôler une gamme de taux d’intérêt.

Plus encore, parce que nous magnifions la cohérence comptable, nous soulignons le fait que la monnaie comme actif doit avoir une contrepartie au passif, quelque chose qui est difficile à maintenir si vous supposez que le stock de monnaie est une variable exogène.

Article original sur Naked Capitalism, traduit par mes soins. Vous pouvez trouver l’essentiel du système d’ensemble de Wynne Godley, un précurseur du néochartalisme, dans 4. Le commerce extérieur. Voici le lien vers la deuxième partie.

7 Commentaires

Classé dans Compléments d'enquête

Austérité fiscale – la dernière généralisation fallacieuse

Traduction par mes soins de Fiscal Austerity – the newest fallacy of composition de William Mitchell, professeur d’économie à l’Université de Newcastle en Australie.

Les origines de la macroéconomie remontent à la reconnaissance que l’approche de la science économique dominante, quant à l’agrégation, fut éviscérée par le concept de Généralisation Fallacieuse (« Fallacy of Composition »), erreur de logique survenant en « inférant qu’une propriété est vraie pour l’ensemble par le fait qu’elle est vraie pour tout ou partie des éléments de l’ensemble ». Ainsi la généralisation fallacieuse se réfère aux situations où des actions logiques individuellement deviennent irrationnelles collectivement. Cette erreur est des plus communes dans les raisonnements des macroéconomistes dominants et est utile pour saper leurs propositions politiques. L’actuel passage en force de l’austérité à travers le monde est un énième exemple flagrant de ce type de raisonnement faussé. Le fait même que l’austérité est promue à grande échelle générera les conditions de son échec comme stratégie de croissance. Nous n’apprenons jamais vraiment.

Les origines de cette erreur logique reposent dans le développement historique de la science économique dominante. Elle s’occupait largement de la microéoconomie et commençait ses raisonnements a priori dans la perspective d’un individu atome. Le consommateur seul ou l’entreprise seule. Je n’irai pas ici dans les détails, mais ce corpus théorique rencontra vite de graves difficultés avec le dénommé Problème d’Agrégation (Aggregation Problem).

Ainsi, pour affirmer des choses sur l’industrie, les marchés ou l’économie dans son ensemble, l’école dominante devait agréger leurs analyses individualistes. Bien sûr cela s’avéra impossible en utilisant n’importe quelle base rationnelle et ainsi ils maquillèrent le problème et supposèrent un « ménage représentatif » comme étant le côté de la demande d’un marché spécifique et une « entreprise représentative » comme étant le côté offre. Ensemble, ils vendent et achètent un « produit composé ».

Le maquillage intervient parce que ce tour de passe-passe transpose les principes applicables aux individus jusqu’au composé ou agrégé.

Avant les années 1930, il n’y avait pas de discipline séparée appelée macroéconomie. La théorie dominante – elle l’est encore aujourd’hui – considérait la macroéconomie comme étant l’agrégat des individus. Donc l’entreprise et le ménage représentatifs étaient ainsi simplement devenus plus gros mais les principes comportementaux qui étaient utilisés pour l’analyse étaient ceux appliqués au niveau individuel.

Par là-même, toute l’économie est perçue comme étant simplement comme une entreprise ou un ménage seul. Il s’ensuit que des changements de comportements ou d’environnements qui peuvent bénéficier à l’individu ou à l’entreprise sont automatiquement proclamés profitables à l’économie dans son ensemble.

L’erreur fondamentale de raisonnement qui survient lorsqu’on essaie d’appliquer au niveau macro une logique qui pourrait fonctionner au niveau micro est appelé généralisation fallacieuse. Les économistes néoclassiques ( précurseurs des néolibéraux contemporains) ne comprenaient pas le piège de la généralisation fallacieuse et exhortaient à réduire les dépenses publiques et les salaires au plus fort de la Grande Dépression.

Keynes mena le combat contre l’école dominante en exposant plusieurs généralisations fallacieuses. Bien que ces erreurs abondent dans l’école macroéconomique dominante, il y en a deux particulièrement fameuses dans la pensée macroéconomique : a) le paradoxe de l’épargne ; et b) la résolution du chômage par réduction des salaires.

Lors du premier semestre d’un cours décent de macroéconomie, les étudiants apprennent le paradoxe de l’épargne – où une vertu individuelle peut devenir un vice public. Lorsque les consommateurs essaient en masse d’épargner plus et que rien ne remplace la consommation perdue, tout le monde souffre parce que le revenu national chute (puisque le niveau de production réagit à la baisse de la consommation) et le chômage monte.

Le paradoxe de l’épargne nous dit que ce qui s’applique au niveau microéconomique  (la capacité d’accroître son épargne si on est suffisamment discipliné) ne s’applique pas au niveau macro (si tout le monde épargne de la demande globale, alors, on réduit la production et les revenus sauf intervention du gouvernement). L’économie plongerait même en récession.

En définitive, les revenus chuteraient et les individus seraient empêchés d’accroître leur épargne au total (parce que l’épargne est en fonction du revenu). Ce qui fonctionne pour l’un ne fonctionnera pas pour tous. C’est cela que l’école dominante occulte.

La causalité reflète la compréhension basique que la production et le revenu sont fonctions de la dépense globale (demande) et des ajustements dans la seconde enclenchent des changements dans les premiers. Il est même possible que l’épargne totale diminue en termes absolus lorsque tous les individus essaient d’épargner plus parce que les ajustements par les revenus sont très brutaux.

Keynes et d’autres considérèrent que les généralisations fallacieuses tel le paradoxe de l’épargne donnent un excellent argument pour considérer a priori l’étude de la macroéconomie comme discipline séparée. Comme écrit précédemment, jusqu’alors, les néoclassiques (l’école dominante moderne) a ignoré les caractéristiques particulières de la macroéconomie qui requéraient qu’elle soit étudiée séparément.

Ils supposèrent qu’on pouvait simplement empiler les relations microéconomiques (l’individu ajoute à un segment du marché qui ajoute à l’industrie qui ajoute à l’économie). Ainsi l’entreprise, le consommateur, ou l’industrie représentatif affichait le même comportement et les mêmes contraintes que les sous-éléments individuels. Mais Keynes et d’autres démontrèrent que l’école dominante n’avait pas de théorie de l’agrégation parce qu’elle ne pouvait pas résoudre ces problèmes de généralisations fallacieuses.

Comme elle supposait simplement que ce qui était vrai pour un individu serait vrai pour tous les individus. Cela amena les opposants à l’école dominante à souligner les plus importantes généralisations fallacieuses de la pensée dominante – leurs tentatives de passer du particulier au général échouèrent en raison des différentes contraintes que l’analyse de niveau macroéconomique appelle.

Paul Krugman l’a saisi de cette manière dans son blog du New York Times Comment les consommateurs capitulent :

… un des points culminants du semestre, si vous êtes un enseignant en introduction à la macroéconomie, survient lorsque vous expliquez comment la vertu individuelle peut être le vice public, comment les tentatives par les consommateurs de faire la bonne chose en épargnant plus peut appauvrir tout le monde. La clé est que si les consommateurs réduisent leur dépense, et que rien ne vient la remplacer, l’économie glissera dans la récession, réduisant le revenu de tous. En fait, le revenu des consommateurs peut même baisser plus que leur dépense, de manière à ce que leurs tentatives d’épargner plus se retournent contre eux – une possibilité connue par le nom de paradoxe de l’épargne.

L’expression paradoxe de l’épargne s’invita dans la nomenclature pendant la Grande Dépression lorsque Keynes et d’autres virent ce problème particulier donner un bon argument pour que le gouvernement dépense un déficit public afin de remplacer la consommation perdue lorsque le secteur non-gouvernemental cherche à accroître son épargne.

Là réside le rôle crucial des déficits budgétaires – financer le désir privé d’épargne. Par conséquent, l’économie nationale peut produire un certain volume de biens et de services à tout moment si elle emploie toutes les ressources disponibles (c’est-à-dire un chômage inférieur à 2 % et pas de sous-emploi). Cette production génère un revenu qui peut être dépensé ou épargné.

Si le secteur privé désire épargner, par exemple, 10 pour 100 $ qu’il reçoit alors ces 10 $ sont perdus pour l’ensemble des dépenses. Si rien d’autres n’advient, des stocks invendus surgiront et les entreprises commenceront à licencier des employés parce que le niveau de production est trop élevé relativement à cette demande. Les entreprises projettent la demande attendue et prennent leurs décisions de production sur ce qu’elles pensent pouvoir vendre dans les périodes à venir.

Le déclin de la croissance économique réduit alors le revenu national qui à son tour réduit l’épargne, étant donné que le premier est une fonction positive du revenu national total.

Mais si l’économie veut se maintenir au plein emploi, toute la production doit être vendue. Sur ce vient le gouvernement. C’est le seul secteur qui peut par une dépense nette de 10 $ pour chaque 100 $ venir combler le « manque de dépense » occasionné par l’épargne. Toute la production est vendue et les entreprises sont heureuses de retenir l’emploi à des niveaux créant cette production. Ce système est ce que les économistes appellent un « équilibre de plein emploi ».

Cependant, notez ce qui est arrivé. La dépense nette par le gouvernement (le déficit) ratifie les décisions d’épargne du secteur privé. Le déficit budgétaire maintient la demande globale assurant le plein emploi et le revenu national en résultant génère le niveau d’épargne désiré. Ainsi le déficit budgétaire finance l’épargne privée quotidiennement.

Il n’y a donc pas de problème particulier pour l’économie lorsque les ménages veulent accroître leur épargne. La solution ne repose pas sur une rapide reprise de l’investissement privé, bien qu’une accélération de la formation de capital améliorerait le rythme de la reprise. Aussi longtemps que le secteur gouvernemental « finance » ce comportement d’augmentation de l’épargne de la part des ménages, la croissance économique peut se poursuivre et le paradoxe de l’épargne peut être compensé. La dépense nette en hausse favorise la croissance des revenus et de l’emploi, qui se combinent pour générer le capacité d’épargne désirée par les ménages. Gagnant-gagnant.

En connaissant l’importance de la généralisation fallacieuse dans la macroéconomie dominante de l’époque, elle encaissa un coup terrible pour sa crédibilité. Comme notre mémoire est courte. Comment ces idées dominantes qui furent discréditées si méticuleusement à l’époque ont été capables de se réaffirmer comme le discours dominant est une autre histoire (aux profondeurs abyssales).

L’autre généralisation fallacieuse majeure concerne la solution de l’école dominante contre le chômage. La macroéconomie a émergé de l’échec de la science macroéconomique dominante à conceptualiser des problèmes à l’échelle de l’économie entière – en particulier, le problème du chômage de masse. Cf mon billet – What causes mass unemployment? – pour en savoir plus à ce sujet.

Marx l’avait déjà compris et vous voudrez peut-être lire la Théorie du Surplus de la valeur où il discute du problème de la réalisation lorsqu’il y a du chômage. À mes yeux, Marx fut le premier à réellement comprendre la notion de demande effective – dans sa distinction entre la demande notionnelle pour un bien (un désir) et la demande effective (celle qui est accompagnée d’argent).

Cette distinction, bien sûr, était la base des travaux de Keynes et des débats subséquents dans les années 1960 lorsque Clower et Axel Leijonhufvud ont démoli les tentatives de l’école dominante de saper la contribution de Keynes en avançant une compréhension monétaire sophistiquée de sa Théorie Générale.

Le fait est qu’avant cela l’école dominante échouait à comprendre ce qui arrive à un individu n’arrivera pas à tous les individus s’ils tentent la même chose. En terme de solution au chômage, elle croyait qu’une entreprise pouvait réduire ses coûts en abaissant les salaires de ses employés. Cependant ils échouèrent à voir que si toutes les entreprises font la même chose, la dépense totale chuterait brutalement et l’emploi aussi. Une fois encore, essayer de raisonner au niveau du système sur la base de l’expérience individuelle échoue le plus souvent.

Les salaires sont à la fois un coût et un revenu. L’école dominante ignore le côté revenu de la négociation salariale. Le problème technique vient de la trompeuse supposition que l’offre agrégée et la demande agrégée sont mutuellement indépendantes. C’est une présupposition standard de la science économique dominante et elle est clairement fausse.

Le chômage de masse apparaît lorsqu’il n’y a pas assez d’emplois et d’heures de travail générés par l’économie pour pleinement employer toute la population désireuse de travailler. Et la raison en est qu’il y a une insuffisante dépense agrégée dont la dépense nette gouvernementale est l’une des sources.

La réponse dominante erronée au chômage persistant qui obère la plupart des économies depuis les trois dernières décennies est d’invoquer des mesures du côté de l’offre – réduction des salaires, des tests d’activité plus stricts pour bénéficier des allocations de solidarité, des programmes sans fin de formation. Mais cette approche politique, qui a dominé la période néo-libérale et reflète leur focalisation sur l’individuel, est une proie facile pour le problème de la généralisation fallacieuse.

Ils méprennent un échec systémique pour un échec individuel. Vous ne pouvez pas chercher des emplois qui ne sont pas là. La principale raison faussant l’approche par le côté de l’offre est qu’elle échoue à reconnaître que le chômage se lève lorsqu’il n’y a pas assez d’emplois créés pour satisfaire les préférences de l’offre volontaire de travail. Les recherches sont claires : brasser les gens à travers des programmes d’entraînement déconnectés de l’environnement du travail salarié est un gaspillage de temps et de ressources, et démoralise les victimes de ce procédé – les chômeurs.

Étude de cas : la parabole des 100 chiens et 95 os

Imaginez une petite communauté de 100 chiens. Chaque matin ils vont déterrer des os dans le jardin. Si assez d’os pour tous y sont enterrés alors tous les chiens parviendront à réussir leur quête quelque soit leur niveau de rapidité et de dextérité.

Maintenant imaginez qu’un jour les 100 chiens se mettent à chercher dans le jardin comme d’habitude mais découvrent qu’il n’y a que 95 os enterrés.

Certains limiers particulièrement fins ont déterré deux os comme d’habitude pendant que d’autres n’en déterrent qu’un habituellement. Mais, par construction comptable, il y a au moins 5 chiens qui reviendront sans os à la niche.

Maintenant imaginez que le gouvernement décide que c’est intenable et que ce sont les talents et la motivation des chiens sans os qui sont le problème. Ils ne sont pas assez doués.

Aussi toute une palette de psychologues pour chiens et de dresseurs est appelée pour travailler sur les capacités et les attitudes des chiens sans os. Ces chiens sont évalués et assignés à des agents de suivis. On leur dit que s’ils ne s’entraînent pas ils perdront leur gamelle nocturne que le gouvernement leur donne lorsqu’ils n’ont pas d’os. Ils se sentent découragés.

De toute façon, après que des habiletés à courir et à creuser sont transmises aux chiens sans os, les choses commencent à changer. Chaque jour les 100 chiens vont chercher 95 os, on commence à voir des chiens différents revenir sans os. La file des sans-os semble être remélangée par les programmes d’entraînement.

Toutefois, pour n’importe quel jour, il y a toujours 100 chiens courant sur le jardin et seulement 95 os enterrés là !

Aux États-Unis il y a 90 os pour 100 chiens et en Espagne 80 os pour 100 chiens !
Le fait est que les généralisations fallacieuses pullulent dans les raisonnements de la science macroéconomique dominante et ont conduit à des décisions politiques très malencontreuses par le passé.

Le sophisme du gouvernement bon père de famille

Une autre source majeure d’erreur de raisonnement dans les théories macroéconomiques dominantes qui mène le bal en faveur de l’austérité est l’analogie trompeuse entre un ménage et le budget du gouvernement. J’y ai souvent répondu.

Dans un système à monnaie fiduciaire, un gouvernement souverain n’est jamais contraint par ses revenus parce qu’il dispose du monopole d’émission de la monnaie. Mais les ménages utilisent cette monnaie et sont toujours financièrement contraints. C’est une différence fondamentale.

Mon ami et parfois coauteur Randy Wray a écrit un très intéressant billet l’année dernière intitulé – Teaching the Fallacy of Composition: The Federal Budget Deficit – où il traite de ces problèmes dans le détail.

Il note que l’analogie du budget gouvernemental avec celui d’un ménage « ignore l’impact qu’a le déficit budgétaire sur les autres secteurs de l’économie ». Il utilise l’approche des soldes sectoriels pour montre que :

Au niveau global, la dépense en dollar de chacun des trois secteurs combinés doit être égal au revenu reçu par les trois secteurs combinés. La dépense globale égale le revenu global. Mais il n’y a aucune raison pour qu’un secteur dépense exactement son revenu. Un secteur peut dégager un surplus (dépenser moins que son revenu) aussi longtemps qu’un autre a un déficit (dépenser plus que son revenu).

Et, « si nous avons un secteur étranger à l’équilibre, il n’y a aucun moyen pour que le secteur privé dans son ensemble n’épargne sauf si le gouvernement opère un déficit. Sans déficit gouvernemental, il n’y aurait pas d’épargne privée. Bien sûr, un individu peut dépenser moins que son revenu, mais un autre aura à dépenser plus que son propre revenu ».

Donc la relation dépense/revenu entre les trois secteurs peut être exprimée sous la forme du cadre comptable des soldes sectoriels se contraignant réciproquement.

Cela est très pertinent quant à la manière dont nous pensons à l’actuelle campagne pour l’austérité.

Nous savons que si le secteur gouvernemental essaie d’opérer des surplus lorsqu’il y a un déficit extérieur et que le secteur privé domestique veut épargner, les conséquences en seront mauvaises. La ponction fiscale réduit le pouvoir d’achat, ce qui entame la croissance des revenus et de la production, et ultimement force le secteur privé domestique à diminuer son épargne.

Le seul moyen d’annuler les dégâts survenant de cette ponction fiscale est d’avoir un surplus extérieur (exportations nettes) ajoutant de la dépense à l’économie locale et soutenant la croissance des revenus et le désire d’épargner. C’est la situation norvégienne.

Ainsi nous savons que si le secteur privé domestique désire épargner globalement, agit en conformité et que la nation bénéficie d’un déficit extérieur, alors le seul moyen de soutenir cela est un flux continu de déficits publics. Ils doivent être permanents et dimensionnés pour satisfaire le manque de dépense laissé par les deux autres secteurs.

Plus encore, c’est le seul moyen de réduire le niveau d’endettement du secteur privé lorsque le solde extérieur est en déficit.

Et cela me mène à l’idée que la campagne pour l’austérité est elle-même tombée dans le piège de la généralisation fallacieuse – aussi dévastatrice que les autres qui pullulent à travers la pensée macroéconomique dominante.

L’austérité comme généralisation fallacieuse

Le FMI a promu des stratégies de croissance orientées vers l’exportation dans les pays émergents depuis des années. Parfois fondées sur l’industrie (Corée du Sud, Taïwan, Hong Kong et Singapour) ou d’autres fois fondées sur les récoltes agricoles ou l’extraction de ressources à l’exportation. Tandis que les premières stratégies d’exportations industrielles des tigres asiatiques (qui précédèrent l’offensive des programmes d’ajustement structurel à partir de la fin des années 1970) furent des succès les recherches montrent très clairement que la plupart des nations pauvres ont régressé avec ces programmes.

Dans le cas du commerce, la généralisation fallacieuse consiste en une contrainte à l’« empilement » quant à la capacité des nations à exporter simultanément des biens sur le marché extérieur – ce qui revient pour la plupart des nations à pénétrer les mêmes marchés.

Le FMI et maintenant les fous de l’austérité invoquent leurs arguments habituels. Premièrement, il n’y a aucune contrainte du côté de la demande parce que le nations riches croîtront suffisamment vite pour supporter le volume accru des importations et éviter les engorgements déprimant les prix des exportations. Deuxièmement, les nations pauvres commenceront à commercer entre elles. Troisièmement, les nations pauvres introduisent continument des techniques de production intensives en capital et feront de la place pour les exportations intensives en main-d’œuvre d’autres nations.

Lorsqu’on lit les nombreuses études sur ce sujet, on découvre qu’en réalité les contraintes par la demande survenant par la concurrence sur les marchés limités à l’exportation sont fortes. Plus encore, les marchés engorgés à l’exportation voient leurs prix continuellement baisser pour les pays moins développés qui ont alors eu à emprunter encore plus de fonds au FMI pour joindre les deux bouts. Dans l’intervalle, ces nations minent leur agriculture de subsistance pour en faire des cultures d’exportations et les gens ont faim.

Mais les plans d’austérité actuels ont quelques similitudes avec la stratégie de développement du FMI, ce qui n’est aucunement une surprise étant donné que le FMI a écrit la récente réponse du G20 endossant les programmes d’austérité.

La magazine The Economist (1er juillet 2010) avait un intéressant article – Austerity alarm – où ils ont écrit que « Les deux camps opposés du débat austérité c. stimulus exagèrent, mais le lobby de l’austérité est plus dangereux ». C’était un retournement pour l’analyse traditionnellement néolibérale qu’on lit dans ce magazine.

The Economist écrit :

… le monde développé semble parti pour un ajustement fiscal collectif pesant 1 % de son PIB annuel total l’année prochaine, la plus grosse contraction budgétaire synchronisée depuis au moins quatre décennies.

Pour les critiques keynésiens le basculement vers l’austérité est une bourde monumentale … [qui] … poussera l’économie mondial dans la dépression. Avec le chômage élevé, une production très en dessous de son potentiel, une dépense privée encore fragile et des taux d’intérêts proches de zéro … le stimulus fiscal demeure un soutien essentiel pour l’économie et des réductions de déficits maintenant appelleraient la stagnation et la déflation.

… les partisans de … l’austérité croient que c’est nécessaire et approprié : la dépense déficitaire ne peut se poursuivre éternellement et en stimulant la confiance des entreprises et des ménages et diminuant la prime de risque sur la dette gouvernementale, une consolidation fiscale bien peut en vérité stimuler la croissance … l’épargne fiscale accroîtra la dépense privée en réduisant l’incertitude quant à la politique d’imposition et à la dette gouvernementales.

Il est clair que les terroristes du déficit ne spécifient jamais comment ils répondraient à cette question : Si le gouvernement prend x pour cent de la dépense globale, qu’est-ce qui les remplacera ? Mais, plus encore, le remplacement doit ajouter plus que ce que le gouvernement ôte pour que la croissance continue.

Mis à part les allusions confuses qu’une sorte d’équivalence ricardienne inversée entrerait en action – ainsi les consommateurs et les entreprises dépenseraient soudainement le liquide qu’ils auraient épargné pour payer les taxes supplémentaires anticipée une fois qu’ils réalisent que les déficits chutent – il n’y a que très peu d’arguments consistants présentés pour étayer le choix de l’austérité. Lisez, je vous prie, mon billet – Pushing the fantasy barrow – pour une discussion sur l’absurdité des arguments de l’équivalence ricardienne de la science macroéconomique dominante.

Dans le Wall Street Journal de la semaine dernière (1er juillet 2010), Thomas Frank a écrit que nous devons Éviter le Piège de l’Austérité (Avoiding the Austerity Trap) :

La réduction du déficit est une obsession malsaine.

Les hausses récentes du déficit fédéral ont fait trembler la classe des experts, mais ne sont pas vraiment mystérieuses. Elles sont, pour la plupart, un produit de la récession, qui a réduit les recettes fiscales, justifié les plans de sauvetages et les mesures de relance, et permis les allocations chômage et autres « stabilisateurs automatiques ».

Réglons la récession et nous réduirons le déficit finalement aussi. Le danger réel est qu’à la place nous décidions de regarder le déficit comme un problème en soi – une question quasi-morale qui doit être résolue indépendamment de la vaste économie – et que nous procédions à l’équilibre du budget nous-mêmes tout droit à nouveau dans l’ornière économique. Pour un aperçu de son fonctionnement, jetez un œil à l’Irlande anciennement prospère, où un régime sévère pour contrôler le déficit public a rendu la récession plus ou moins permanente.

L’austérité serait un choix terrible en ce moment, mais la pulsion gaffeuse démange le clergé politique ces jours-ci. Une raison à cela est que la réduction du déficit est le plus souvent un levier pour autre chose, quelques projets politiques qui doivent demeurer obscurs parce qu’ils sont trop écœurants pour être discutés ouvertement.

La lecture de cet article m’a rappelé la prose sur les déficits stratégiques. C’était une phrase du cru de David Stockman directeur du budget du président Ronald Reagan « pour décrire l’utilité de créer des manques à gagner budgétaires de long-terme pour saper le soutien politique à la dépense gouvernementale » (Source en anglais).

Il y a donc clairement des arrière-pensées politiques sous les appels à l’austérité.

Mais le meilleur argument que les fous présentent habituellement est le commerce extérieur et c’est là que nous rencontrons une autre généralisation fallacieuse dévastatrice. J’ai vu quelques papiers sortis ces mois-ci pour prétendument documenter des cas où l’austérité a conduit à la croissance. Deux pays sont souvent tenus pour exemplaires de cette approche – le Canada et la Suède dans les années 1990.

Dans les deux cas les gouvernements ont réduit leurs dépenses nettes et la croissance apparut les années suivantes. L’article de The Economist note que :

Mais dans la plupart de ces exemples les taux d’intérêt ont chuté ou la monnaie s’est dépréciée. Ces remèdes ne sont pas disponibles actuellement : les taux d’intérêts sont déjà bas et les monnaies des pays riches ne peuvent toutes se déprécier simultanément. Sans ces amortisseurs, l’austérité fiscale ne peut probablement pas stimuler la croissance.

Ainsi bien que le Canada ait pu compenser les réductions de sa dépense publique par l’amélioration du solde extérieur ainsi qu’une compétitivité accrue par des ajustement des taux de changes, cette solutions ne peut pas fonctionner si tous les pays s’engagent dans de l’austérité. Là réside la généralisation fallacieuse.

En ce moment, l’Irlande a montré un sursaut du PIB tiré par la croissance britannique et américaine. Mais ces deux nations ralentissent dorénavant en introduisant des politiques d’austérité que ce soit explicitement ou implicitement par l’expiration des mesures de stimulation.

Ainsi la stratégie de croissance par l’exportation ne peut s’appliquer à toutes les nations qui réduisent leurs demandes domestiques.

Il est également ironique que les interventions fiscales les plus importantes (Chine) ont procuré quelque croissance globale. Et même cette injection de dépense sera probablement réduite l’année prochaine.

Le résultat est que vous obtenez la stratégie politique typique de l’UEM – écorcher l’économie domestique en dégradant les allocations, les salaires et les conditions de travail – et espérer une croissance extérieure. Un pays pourrait s’en sortir ainsi mais pas tous.

La seule manière fiable de prévenir une généralisation fallacieuse comme celle-là est de maintenir un soutien fiscal adéquat par la dépense pendant que le secteur privé réduit son endettement excessif par l’épargne.

Cette stratégie est également la meilleure pour stimuler les exportations parce que la croissance du revenu mondial sera plus forte et que les importations sont en fonction de la croissance du PIB.

Les austérichiens [NdT : mot-valise avec autrichiens, une école ultra-libérale, et austérité] ne sapent pas seulement les droits et le bien-être des citoyens mais sapent également  la source des revenus de l’exportation – la demande agrégée domestique.

Digression : La banque centrale australienne maintient ses taux d’intérêt

Aujourd’hui la Reserve Bank of Australia (RBA) a décidé de maintenir constants ses taux d’intérêt en Australie à 4,5 pour cent. On peut lire le Communiqué pour comprendre pourquoi. En gros, ils deviennent un peu pessimistes quant à l’environnement extérieur.

J’aurais préféré une réduction des taux !

Conclusion

Ce sera tout pour aujourd’hui !

Un peu étourdi, j’avais cru que cet article était tout récent, et ne me suis rendu compte de sa date exacte (6 juillet 2010) qu’après avoir largement entamé la traduction. Je l’ai terminée parce que les prédictions de Mitchell se sont avérées et celles des libéraux se sont effectivement démenties, enfin parce que le débat a largement stagné depuis, d’où ma méprise. Espérons que l’austérité continuera à laisser des déficits supérieurs aux critères de Maastricht, on pourrait alors éviter le pire. Mais pour la zone euro, c’est peu probable.

9 Commentaires

Classé dans En vrac

La manipulation des taux d’intérêt pour les nuls

Le problème d’une mauvaise compréhension macroéconomique, c’est qu’on se met à dire et préconiser n’importe quoi, même le pire. Il faudrait un nouvel opus dans la série Pour les Nuls aux Éditions First : La manipulation des taux d’intérêt pour les nuls. Car il est parfois navrant de constater que certains sont restés largement bloqués, dans leurs compréhensions des mécanismes monétaires, au temps de l’étalon de change or disparu en 1971.

Dans ce registre, un homme par ailleurs intelligent, Olivier Berruyer, premier blogueur économique français récidive :

il y a tout de même un clair rationnement des crédits, à un moment où les besoins ont fortement augmenté en raison de l’approfondissement de la Crise.

Au passage, cette situation est totalement incohérente avec l’évolution des taux interbancaires :

marché interbancaire zone euro

Nous avons déjà souligné cette marque d’une très probable fraude massive sur le dos des prêteurs dans ce billet : Libor : La plus grande manipulation financière de l’Histoire ?

Eh bien non, il n’y a strictement aucune incohérence entre une crise, entre autre interbancaire, et des taux bas. Allez, pour votre plaisir, votre dévoué serviteur vous fait une démonstration illustrée. Ça évitera aussi au sympathique et généralement très compétent Olivier Berruyer la si dangereuse tentation conspirationniste.

Taux Libor et « manipulation des taux »

Je n’expliquerai pas ce qu’est le taux Libor car Olivier l’a très bien fait, il suffit pour ce billet de savoir qu’il est un taux d’intérêt sur les prêts simples entre banques et qu’il est très important pour les marchés financiers.

Voici un graphique avec le même taux Libor à 3 mois choisi par Olivier en vert, les taux directeurs de la Federal Reserve en rouge, et les taux Libor à 1 mois et à 1 an pour bien montrer à quel point ça ne change rien :

Taux directeurs en rouge
Libor dollar à 1 mois en bleu
Libor dollar à 3 mois en vert
Libor dollar à 12 mois en orange.
entre vert et rouge, r2=0,99

C’est aussi simple que ça. Les taux Libor suivent servilement les taux directeurs de la banque centrale. Banque centrale qui manipule effectivement les taux, c’est son rôle officiel, proclamé et vanté. Voilà toute la conspiration. Pour ceux qui n’aiment que la preuve mathématique, le taux de corrélation entre les taux directeurs de la Fed et le taux Libor basé sur le dollar américain à 3 mois est de 0,99 ; à 1,00 ils sont parfaitement synchrone, à 0,00 ils n’ont strictement aucun rapport (et à -1,00 ils ont un rapport parfaitement inverse l’un à l’autre).

Pourquoi toutes ces similitudes et pourquoi ces menues divergences ?

Les similitudes sont simples à expliquer. Le taux Libor est le taux des prêts entre les banques : lorsque l’une d’elle veut se financer, une autre lui prête sa monnaie non-utilisée à un intérêt. Cet intérêt est le Libor. Sauf que la banque n’avait pas ce prêt pour seule option de financement. Par exemple, elle pouvait aussi revendre des bons du Trésor à la banque centrale, qui en revend elle-même dès que le taux de ces bons sont au-dessus de son objectif de taux directeur, et en achète dès qu’ils sont en-dessous. Bien évidemment, la banque en mal de financement se financera à moindre coût, donc préférera l’offre de la banque centrale si la banque prêteuse exige plus que le taux directeur, mais à l’inverse, ne se fera pas prier pour relever le taux qu’elle exige si la banque en mal de financement fait face à un taux directeur plus élevé que le taux exigé. Donc le taux Libor colle au taux directeur, parfois un peu en-dessous, parfois un peu au-dessus. C’est le but des taux directeurs que de diriger les autres taux, de leur donner une impulsion commune. Il n’y a rien de secret dans tout cela. Le mécanisme opère, crise ou non, et si les taux directeurs avoisinent zéro pendant longtemps, alors les taux Libor avoisinent zéro eux aussi pendant aussi longtemps. Tout simplement. La banque qui pense que son prêt vaut plus que le taux voisin du taux directeur ne trouve pas de demande, et ne prête donc pas, laissant le Libor à cet étiage voisin.

Pourquoi restent-il des différences ? Pourquoi 0,99 plutôt que 1,00 ? Les deux marchés sont contigus, mais pas confondus. Il y a une petite latence, un petit délai de transmission entre les deux taux. On observe un taux Libor supérieur au taux directeur lorsque les banques sont prises de court et que la banque centrale doit réagir, comme lors du krach d’octobre 1987, ou lors de l’effondrement du crédit (« credit crunch ») de septembre 2008 à avril 2009, au plus fort de la crise des subprimes, avec un pic à 3 points en plus pour le Libor en octobre 2008 ! Mais aussitôt que la banque centrale comprend l’information et réagit, l’écart se réduit à nouveau…

D’autres raisons, toutes aussi mineures, interviennent dans ces petits décalages de taux, comme les différentes échéances : plus un prêt se fait à long terme, plus son taux d’intérêt tend malgré tout à être élevé. C’est pourquoi le Libor à 1 an (orange) est au-dessus du Libor à 3 mois (vert) qui est lui-même au-dessus du Libor à 1 mois (bleu), les taux directeurs fermant la marche car ils ont les échéances les plus courtes (jusqu’à une nuit voire immédiat).

Ensemble, toutes ces raisons comptent pour 0,01 (en bénéficiant de l’arrondi). Pas de quoi loger « une fraude massive ».

Tout cela devrait être parfaitement trivial pour tout économiste compétent. Si Olivier Berruyer se trompe si magistralement comme tant d’autres bien plus réputés encore, c’est parce qu’ils n’ont pas compris que le « le traitement par les manuels scolaires du mécanisme de transmission [du crédit doit] être rejeté ». En effet, le rationnement du crédit ne se fait pas par le haut, par la banque centrale, et redescendant ensuite vers le bas par le mécanisme du crédit. Au contraire, d’abord les banques contractent des crédits, et ensuite elles s’occupent de pouvoir les solder en trouvant les réserves nécessaires auprès de la banque centrale en dernier recourt. Comme le dit la Banque des Règlements Internationaux :

le niveau de réserves n’influe qu’à peine les décisions par les banques de prêter. Le montant de crédits en cours est déterminé par l’empressement des banques de fournir des prêts, fondée sur le compromis profitabilité/risque perçu, et par la demande pour ces prêts. La disponibilité globale des réserves ne contraint pas directement l’expansion du crédit. La raison est simple : comme expliqué dans la Section I, lors du graphique I – de loin le plus commun – afin d’éviter une volatilité extrême du taux d’intérêt, les banques centrales fournissent des réserves sur demande du système. Dans cette perspective, un minimum obligatoire de réserves, en fonction de leur rémunération, affecte le coût de l’intermédiation de ces prêts, mais ne contraint pas l’expansion du crédit quantitativement.

Si on ne comprend pas que le crédit est passif, suivant pour l’essentiel les fluctuations cycliques de l’économie réelle en les amplifiant, et si on se refuse à comprendre que les taux exigés sur ces crédits sont manipulés par les banques centrales, alors on se condamne à trouver des causes imaginaires, et même de sombres et redoutables conspirations ! « sur le dos des prêteurs » dit Berruyer, sauf que les prêteurs et les emprunteurs sont les mêmes et ne cessent d’échanger leurs places, sur le marché interbancaire !

Le temps où l’on se disputait l’or qu’on avait pu sortir des mines pour avoir de la monnaie est fini. Depuis 1971. Il faut arrêter de voir le crédit comme quelque chose de rare, qu’il faudrait se disputer âprement. Le crédit est aussi abondant que possible et que souhaitable. Ce qui est rare, c’est une demande solvable pour ces crédits, des emprunteurs solvables. Mais ça, seul le déficit public peut l’améliorer, et en s’obstinant à n’accorder de la monnaie à l’État qu’à crédit, et en plus à s’insurger dès qu’il en contracte un peu trop au goût si subjectif de certains qui ne jurent que par l’austérité, alors il ne faut pas s’étonner que la récession revienne…

Vite un nouveau manuel, et pour des nuls s’il vous plait !

PS : Olivier Berruyer m’a très poliment concédé ce point et a retiré la page quasi-conspirationniste de son site, ainsi que l’essentiel du passage cité au-dessus. Quelle rapidité !

PPS : Deuxième service ! Cette fois pour le LIBOR de la livre sterling, avec graphique naturellement.

20 Commentaires

Classé dans Compléments d'enquête, La planche à billets maîtrise les taux